Google geeft toe dat Gemini’s beeldgenerator ‘het doel miste’

Google kwam deze week zwaar onder vuur te liggen vanwege de Gemini-chatbot van het bedrijf, die etnisch diverse afbeeldingen heeft gemaakt, zelfs als dat geen zin zou hebben om dat te doen. Dit leidde ertoe dat gebruikers op sociale media Gemini ‘absurd wakker’ noemden, en conservatieve mediakanalen om Google en zijn kunstmatige intelligentie-assistent te vernietigen. Voor degenen die niet bekend zijn: Gemini is de AI-gebaseerde chatbot van Google, voorheen bekend als Bard. Het bedrijf heeft zijn zinnen gezet op Gemini ter vervanging van Google Assistant en wil de concurrentie aangaan met ChatGPT. Onderdeel van die inspanning was onlangs dat Google een beeldgenerator aan Gemini toevoegde.

Maar de neiging van de beeldgenerator om etnisch diverse beelden te creëren als reactie op niet-gerelateerde aanwijzingen, trok enige ongewenste aandacht. Voor alle duidelijkheid: er is geen probleem als Gemini diverse afbeeldingen maakt op basis van abstracte aanwijzingen. Gemini bleef echter afbeeldingen genereren die divers waren, zelfs als ze niet logisch waren gezien de oorspronkelijke opdracht. Virale prompts vroegen Gemini bijvoorbeeld om afbeeldingen te genereren van een nazi-soldaat uit de Tweede Wereldoorlog, en de resulterende afbeeldingen waren etnisch divers. In dit soort situaties zou het historisch redelijk zijn om van Gemini te verwachten dat hij afbeeldingen maakt waarin voornamelijk blanke mensen voorkomen.

Google erkende zijn fout in a verklaring gepost op X op woensdag. “We werken eraan om dit soort afbeeldingen onmiddellijk te verbeteren. De AI-beeldgeneratie van Gemini genereert een breed scala aan mensen”, aldus het bedrijf. “En dat is over het algemeen een goede zaak, omdat mensen over de hele wereld het gebruiken. Maar hier schiet het de plank mis.”

Waarom creëert de Gemini-afbeeldingsgenerator van Google veel verschillende mensen?

Zoals Google in zijn verklaring uitlegt, is het belangrijk dat AI-beeldgeneratoren diverse afbeeldingen creëren. De meeste aanwijzingen voor het genereren van afbeeldingen bevatten geen voorwaarden die bepalen welke rassen en etniciteiten in de afbeeldingen moeten worden weergegeven. Als iemand bijvoorbeeld Gemini vraagt ​​om simpelweg een persoon te creëren, zou een afbeelding van welk ras of etniciteit dan ook logisch zijn. Het probleem is dat Gemini momenteel niet over de contextuele kennis beschikt om mensen van etniciteit te genereren die op basis van een bepaalde prompt zinvol zijn.

Gedeeltelijk kwam de verontwaardiging doordat Google actief diverse beelden creëert, waardoor rechtse figuren en media Google aanvallen als ‘wakker’. In een prompt werd Gemini bijvoorbeeld gevraagd ‘een foto te maken van een Amerikaanse senator uit de 19e eeuw’. Gemini antwoordde: “Natuurlijk, hier zijn enkele afbeeldingen met diverse Amerikaanse senatoren uit de 19e eeuw.”

Hoewel Google toegeeft dat de Gemini-beeldgenerator ‘het doel mist’, probeert het bedrijf raciale en etnische vooroordelen op het gebied van kunstmatige intelligentie te overwinnen. Omdat AI-modellen worden getraind door menselijk bronmateriaal, kan kunstmatige intelligentie dezelfde vooroordelen hebben als mensen. Door actief mensen met diversiteit te genereren, probeert Google ervoor te zorgen dat eeuwen van vooruitgang niet worden teruggedraaid door AI.

Thijs Van der Does