De rechtbank die een ‘anti-AI’-wet verdedigt, bevat door AI gegenereerde secties

Een paar dagen geleden liet het kunstmatige-intelligentiesegment een van de meest merkwaardige verhalen vallen die de laatste tijd naar voren zijn gekomen. Blijkbaar vertoonden de argumenten ter ondersteuning van een ‘anti-AI’-wet tekenen dat ze door AI waren gegenereerd. Nu gaf de belangrijkste verdediger van de wet toe dat hij ChatGPT had gebruikt in zijn rechtszaak.

De achtergrond van de uitdaging van de ‘anti-AI’-wet van Minnesota

De wet, genaamd “Gebruik van Deep Fake-technologie om verkiezingen te beïnvloeden” en gepresenteerd in Minnesota, staat voor een uitdaging. Jeff Hancock, oprichter en directeur van het Stanford Social Media Lab en desinformatie-expert, presenteerde een reeks argumenten ten gunste van de wetgeving. Om eerlijk te zijn, richt de wet zich alleen op op deepfake gerichte platforms, en niet op kunstmatige intelligentie als geheel. Het richt zich op kunstmatige-intelligentiediensten die realistische inhoud kunnen produceren die verwarring kan veroorzaken.

Christopher Khols, een conservatieve YouTuber, en Mary Franson, een vertegenwoordiger van de staat Minnesota, dagen de wet uit. Ze ontdekten bepaalde patronen van AI-gebruik in het citatiegedeelte van Hancocks dossier. Meer specifiek bevat het citatiegedeelte van Hancocks dossier verwijzingen naar bronnen en onderzoeken die niet bestaan. Al het bewijsmateriaal suggereerde dat deze fictieve citaten het resultaat waren van kunstmatige intelligentie-hallucinaties. Daarom verzocht de eiser om uitsluiting van het document van de zaak omdat het onbetrouwbaar was.

De rechtbank die ten gunste van de wet pleit, bevat secties die zijn gegenereerd door ChatGPT

In reactie daarop heeft Jeff Hancock toegegeven dat hij inderdaad ChatGPT heeft gebruikt in zijn rechtsgeding. Hij beweert echter dat hij de dienst van OpenAI niet heeft gebruikt om zijn argumenten op te stellen. “Ik heb de inhoud van de verklaring geschreven en beoordeeld, en ik sta resoluut achter elk van de beweringen die erin worden gedaan, die allemaal worden ondersteund door het meest recente wetenschappelijke onderzoek op dit gebied en mijn mening als expert weerspiegelen over de impact van AI-technologie. over desinformatie en de maatschappelijke gevolgen ervan,‘ verklaarde hij.

Waarom gebruikte Hancock ChatGPT dan? Volgens zijn laatste aanvraag gebruikte hij ChatGPT om het citatiegedeelte van het document te verbeteren. Hij beweert dat hij de AI-service heeft gebruikt “om artikelen te identificeren die waarschijnlijk relevant waren voor de verklaring, zodat ik wat ik al wist kon combineren met nieuwe wetenschappelijke kennis.”

Hancock zegt dat hij op geen enkele manier de bedoeling had de rechtbank te misleiden en bood zijn excuses aan “voor eventuele verwarring (het gebruik van AI) die mogelijk heeft veroorzaakt.” Hij blijft echter achter de gehele inhoud van het document. Dat gezegd hebbende heeft Hancock een probleem, aangezien de detectie van AI in een van de secties van de indiening de rest van de inhoud twijfelachtig zou kunnen maken. Alles zal afhangen van hoe de rechter de uitleg van de desinformatie-expert ontvangt.

Thijs Van der Does