Een van de grootste controverses in de AI-industrie is het gebruik van auteursrechtelijk beschermd materiaal om AI-tools te trainen. Het omvat het gebruik van auteursrechtelijk beschermde tekst om chatbots te trainen, auteursrechtelijk beschermde muziek om muziekgeneratoren te trainen, auteursrechtelijk beschermde kunst om beeldgeneratoren te trainen, enz. Zelfs als de inhoud niet auteursrechtelijk beschermd is, vinden veel mensen de gedachte dat hun inhoud wordt geschrapt gewoon niet leuk. Welnu, vandaag heeft OpenAI een tool aangekondigd genaamd Media Manager. Hierdoor kunnen mensen zich afmelden voor het laten trainen van chatbots met hun informatie.
Veel mensen die hun inhoud aan het publiek posten, houden er niet van dat AI-bedrijven hun gegevens verzamelen om AI-modellen te trainen. De New York Times is bijvoorbeeld bezig OpenAI en Microsoft aan te klagen wegens het vermeende gebruik van auteursrechtelijk beschermde artikelen voor hun AI-tools. Het bedrijf beweert dat ChatGPT delen van of hele artikelen kan reproduceren. Die zaak loopt nog, dus we zullen op de resultaten moeten wachten.
OpenAI heeft de Media Manager aangekondigd
Eén ding dat mensen het meest op de zenuwen werkt, is het feit dat ze geen idee hebben of hun inhoud wordt gebruikt om AI-modellen te trainen. Mensen plaatsen hun afbeeldingen, video's, kunst, muziek, verhalen, enz. op internet; ze houden echter niet van het idee dat bedrijven ze naar eigen goeddunken kunnen schrappen. Dit ontmoedigt mensen dus om hun inhoud te plaatsen.
Welnu, dit is één ding dat de OpenAI-mediamanager wil aanpakken. In een blogpost stelt het bedrijf dat het in 2025 een tool in de maak wil hebben.
De tool zelf lijkt nogal ambitieus. Hiermee kan OpenAI uw inhoud identificeren en kunt u aangeven of u uw inhoud wel of niet wilt gebruiken om de modellen ervan te trainen. “Dit vereist baanbrekend machine learning-onderzoek om een allereerste tool in zijn soort te bouwen die ons helpt auteursrechtelijk beschermde tekst, afbeeldingen, audio en video uit meerdere bronnen te identificeren en de voorkeuren van de maker te weerspiegelen.”
Op dit moment weten we nog niet helemaal hoe deze tool zal werken. Het bedrijf wil samenwerken met makers van inhoud en toezichthouders om dit te helpen realiseren. Het zal dus nog wel even duren voordat we daar iets van zien komen.
Als OpenAI dit echter doet, moeten andere bedrijven dit voorbeeld volgen. Mensen willen een manier om ervoor te zorgen dat AI-bedrijven hun inhoud niet zonder hun toestemming schrappen.