Meta’s vicepresident AI zegt dat het open-source licentiesysteem moet veranderen

Toen Meta zijn Llama 2 AI-taalmodel introduceerde, veroorzaakte het nogal wat gesprekken door te beweren een open-source en gratis AI-model te zijn. Ondanks Meta’s beweringen dat het ‘open source’ is, kon het AI-model echter niet voldoen aan de criteria van het Open Source Initiative (OSI). Nu suggereert Joelle Pineau, Meta’s vice-president voor AI-onderzoek, dat de vereisten voor open source-licenties moeten evolueren.

De kern van de kwestie

De kern van dit probleem is Llama 2, dat het bedrijf in juli lanceerde als het eerste ‘open-source’ AI-model. Volgens de vereisten van OSI moet een dienst echter, wil hij als open source worden beschouwd, gratis distributie bieden, volledige toegang hebben tot de broncode en wijzigingen toestaan. Hoewel Meta aan een aantal van deze voorwaarden voldeed, zorgde het feit dat het bedrijf licentiekosten in rekening bracht voor ontwikkelaars met meer dan 700 miljoen dagelijkse gebruikers en andere bedrijven niet toestond hun AI-modellen te trainen met behulp van Llama ervoor dat het niet in aanmerking kwam voor de “open-source”-versie. ” etiket.

Meta’s antwoord op open-sourcevereisten

Toen Pineau over de situatie sprak, erkende hij de beperkingen van het bedrijf, maar wees hij erop dat hun oplossing een evenwicht vindt tussen het delen van informatie en het beschermen van Meta’s zakelijke belangen. “Openheid heeft de manier waarop we onderzoek benaderen fundamenteel veranderd, waardoor we vanaf het begin alleen datgene hebben vrijgegeven wat veilig en verantwoord is”, aldus Pineau.

Ze voerde ook aan dat dit niet het eerste open-sourceproject is waaraan het team heeft gewerkt. Dit komt omdat het bedrijf in 2016 PyTorch introduceerde, een open-source machine learning-bibliotheek gebaseerd op de Torch-bibliotheek, die velen gebruiken in toepassingen zoals computervisie en natuurlijke taalverwerking.

“Hoe we ervoor kiezen om ons onderzoek of de code vrij te geven, hangt af van de volwassenheid van het werk. Als we niet weten wat de schade zou kunnen zijn of wat de veiligheid ervan is, zijn we voorzichtig met het vrijgeven van het onderzoek aan een kleinere groep,” voegde Pineau eraan toe.

Bovendien benadrukte Meta ook dat het prioriteit geeft aan feedback van een diverse groep onderzoekers en samenwerkt met verschillende brancheorganisaties, zoals het Partnership on AI en MLCommons, om benchmarks en richtlijnen voor deze AI-modellen te ontwikkelen.

Thijs Van der Does