Een anti-deepfake-wet zou door AI kunnen zijn gegenereerd

Af en toe laat de technologie-industrie ons achter met grappige nieuwsverhalen vanwege hoe surrealistisch ze zijn. Momenteel zijn op kunstmatige intelligentie gebaseerde ontwikkelingen vrij gangbaar in ons dagelijks leven. Het was dus slechts een kwestie van tijd voordat er iets gerelateerds opkwam. Een wet uit Minnesota die door AI gegenereerde realistische inhoud – ook wel ‘deepfakes’ genoemd – aanvalt, zou door een AI kunnen zijn geschreven.

Een AI had de ‘anti-deepfake-wet’ van Minnesota kunnen schrijven

De wet in kwestie heet “Gebruik van Deep Fake-technologie om verkiezingen te beïnvloeden.” Ironisch genoeg wordt het uitgedaagd omdat het sporen van generatieve AI in de inhoud vertoont. In het beroepschrift wordt niet melding gemaakt van het opstellen van paragrafen met AI. Er zijn echter citaten naar onderzoeken die niet echt bestaan.

Het is mogelijk dat de genoemde onderzoeken het resultaat zijn van de hallucinaties van het AI-platform. Bij kunstmatige intelligentie zijn ‘hallucinaties’ segmenten van onjuiste informatie of rechtstreeks ‘uitgevonden’ door de dienst. AI-chatbotontwikkelaars werken er hard aan om deze tot een minimum te beperken om de meest nauwkeurige output mogelijk te maken. Een klein percentage van de onnauwkeurige reacties treedt echter nog steeds op als gevolg van hallucinaties.

Verwijzingen naar niet-bestaande bronnen kunnen het product zijn van AI-hallucinaties

Zoals gerapporteerd door The Minnesota Reformer, vroeg de rechter in de zaak, generaal Keith Ellison, Jeff Hancock, oprichter en directeur van het Stanford Social Media Lab, om zich aan de wet te onderwerpen. Al snel werd echter duidelijk dat er onder de citaten niet-bestaande onderzoeken aanwezig waren. Het document citeerde onderzoeken als “De invloed van deepfake-video’s op politieke attitudes en gedrag”van het Journal of Information Technology & Politics. Er is geen verslag van een dergelijk onderzoek.

Nog een citaat: “Deepfakes en de illusie van authenticiteit: cognitieve processen achter de acceptatie van verkeerde informatie”, bestaat ook niet. “Het citaat vertoont de kenmerken dat het een ‘hallucinatie’ van kunstmatige intelligentie (AI) is, wat suggereert dat het citaat in ieder geval werd gegenereerd door een groot taalmodel zoals ChatGPT.”, betogen advocaten van Mary Franson – vertegenwoordiger van de staat Minnesota – en de heer Reagan, een conservatieve YouTuber.

Eisers weten niet hoe deze hallucinatie in de verklaring van Hancock terecht is gekomen, maar het zet het hele document in twijfel, vooral wanneer een groot deel van het commentaar geen enkele methodologie of analytische logica bevat.”, luidt het beroep op de wet.

Thijs Van der Does