We kennen allemaal AI-beeldgeneratoren en wat hen tot een bedreiging maakt. Het lijkt er echter op dat AI-bedrijven er niet aan werken om ze zo veilig te maken als ze beloven. Een Microsoft-ingenieur is Image Designer en produceert schadelijke inhoud.
De ingenieur in kwestie heet Shane Jones. Hij werkt al zes jaar voor Microsoft en heeft als red teamer de Copilot Image Designer getest. In termen van AI betekent red teaming in feite het voeden van AI-modelprompts om ervoor te zorgen dat deze schadelijke inhoud genereert. Zo kan een bedrijf zien waar zijn model verbeterd kan worden.
Een Microsoft-ingenieur waarschuwt dat Copilot Image Designer schadelijke inhoud kan genereren
Ogenschijnlijk zouden OpenAI en Microsoft in dit opzicht de schuld moeten delen. Copilot Image Designer maakt gebruik van het DALL-E 3 AI-model van OpenAI.
Shane Jones heeft er lang op aangedrongen dat Microsoft zijn Image Designer offline haalt voor diepgaande tests. Tijdens het testen van de beeldgenerator kon Jones behoorlijk schokkende beelden genereren.
Volgens het rapport kon hij met behulp van de tool beelden maken van alcoholgebruik door minderjarigen, drugsgebruik door minderjarigen, geseksualiseerde beelden van vrouwen, tieners met aanvalsgeweren en andere aangrijpende beelden. “Het was een eye-opening moment”, vertelde Jones in een interview aan CNBC.
Hij probeert met de bedrijven te communiceren
Sindsdien heeft hij meerdere pogingen ondernomen om contact op te nemen met Microsoft om de beeldgenerator te laten verwijderen om eraan te werken. “De afgelopen drie maanden heb ik er herhaaldelijk bij Microsoft op aangedrongen om Copilot Designer voor openbaar gebruik te verwijderen totdat er betere waarborgen konden worden ingevoerd.”
Op dat moment verwees Microsoft hem naar OpenAI. Helaas kreeg hij radiostilte van OpenAI. Daarna plaatste hij een open brief op LinkedIn waarin hij het bestuur van OpenAI vroeg om DALL-E 3 te verwijderen voor verder onderzoek. Op dat moment was het duidelijk dat geen van beide bedrijven iets met zijn verzoeken te maken wilde hebben. Het juridische team van Microsoft zei tegen Jones dat hij de post moest verwijderen, en dat deed hij. Jones was echter nog niet klaar.
Deze woensdag stuurde Jones een brief naar FTC-voorzitter Nina Khan en de Raad van Bestuur van Microsoft. In de brief werd Microsoft’s commissie voor sociaal en openbaar beleid verzocht de beslissingen en het beheer van de juridische afdeling te onderzoeken. Jones wil ook dat het bedrijf begint met “een onafhankelijke beoordeling van Microsofts verantwoordelijke AI-incidentrapportageproces.”
Jones blijft vechten om het woord te verspreiden dat DALL-E 3, samen met Copilot Image Designer, mogelijk gebreken vertoont. Het kan heel gemakkelijk zijn om schadelijke inhoud te produceren met behulp van de tool.