Meta’s nieuwe beleid om deepfake-advertenties tegen te gaan tijdens de verkiezingen van 2024

Het jaar van deepfakes nadert snel nu enkele van de grootste democratieën ter wereld zich voorbereiden op verkiezingen. De VS, Groot-Brittannië en India behoren tot de landen die het komende jaar algemene verkiezingen zullen houden. Meta heeft een proactieve aanpak gevolgd en voorziet de rol van AI en deepfakes bij het verspreiden van desinformatie. In een recente verklaring kondigde Meta aan dat alle adverteerders nu “moeten bekendmaken wanneer zij in bepaalde gevallen digitaal een advertentie over politieke of sociale kwesties maken of wijzigen.” Dit nieuwe beleid is bedoeld om gebruikers te helpen “begrijpen wanneer een sociale kwestie, verkiezing of politieke advertentie op Facebook of Instagram digitaal is gemaakt of gewijzigd.”

Deepfakes zijn een vorm van geavanceerde digitale manipulatie. Deze door AI gegenereerde hyperrealistische video’s of audio-opnamen kunnen de gelijkenis van een persoon vervangen door een andere. In de context van politieke reclame vormen deepfakes een aanzienlijke bedreiging. Ze hebben de macht om het politieke discours te ondermijnen door beelden, overtuigende toespraken of uitspraken te verzinnen die verkeerde informatie verspreiden en het publiek misleiden.

Desinformatie is al lange tijd een groot probleem op sociale media. We zijn er allemaal minstens één keer het slachtoffer van geworden. De evolutie van deepfakes, inclusief videowijzigingen en door AI gegenereerde beelden, heeft een punt bereikt waarop het onderscheiden van authenticiteit zonder de juiste context behoorlijk uitdagend wordt. Meta’s actie anticipeert en pakt de waarschijnlijkheid aan dat misleidende inhoud of deepfake-video’s viraal gaan in de aanloop naar de komende verkiezingen.

Met ingang van januari verplicht Meta’s nieuwe mondiale beleid adverteerders die advertenties weergeven met digitaal gewijzigde media om de wijzigingen transparant openbaar te maken

Het beleid omvat scenario’s zoals het portretteren van een echte persoon die woorden spreekt die hij nooit heeft gesproken, met een levensechte persoon die niet bestaat, of het uitbeelden van een realistische gebeurtenis die nooit heeft plaatsgevonden. Om in strijd te zijn met het beleid moet een digitale wijziging een significante bijdrage leveren aan de algehele boodschap. Het eenvoudig bijsnijden van een kleine afbeelding zou bijvoorbeeld niet in strijd zijn met de nieuwe richtlijnen.

Meta heeft haar toewijding uiteengezet om informatie aan advertenties toe te voegen wanneer digitale wijzigingen of deepfakes worden onthuld, hoewel er geen details worden verstrekt. Adverteerders die de gewijzigde media niet openbaar maken, zullen resulteren in ‘strafmaatregelen tegen de adverteerder’. Meta behoudt zich het recht voor om inhoud die dit beleid schendt te verwijderen. Meta’s eerdere beleid was gericht op deepfakes en digitale veranderingen. Deze nieuwe veranderingen vertegenwoordigen een aanzienlijke stap voorwaarts in hun inzet om misleidende inhoud te bestrijden.

Interessant genoeg heeft Google een soortgelijk standpunt ingenomen bij de aanpak van AI in advertenties. Bovendien heeft X (Twitter) een Community Notes-functie geïmplementeerd om desinformatie en gewijzigde media te bestrijden. TikTok kiest voor een veiliger route door alle vormen van politieke reclame ronduit te verbieden. Deze collectieve reactie van de industrie weerspiegelt een groeiende dreiging van desinformatie tijdens een verkiezingsjaar.

Thijs Van der Does