AI-aangedreven bedrog is een bedreiging voor onze samenlevingen

Waar er ook conflicten in de wereld zijn geweest, propaganda is nooit ver weg geweest. Reis terug in de tijd naar 515 v.Chr. En lees de Behistun -inscriptie, een autobiografie van de Perzische koning Darius die zijn machtsopkomst bespreekt. Meer recent, zie hoe verschillende kranten rapporteren over oorlogen, waar wordt gezegd: ‘Het eerste slachtoffer is de waarheid.’

Hoewel deze vormen van communicatie de overtuigingen van mensen kunnen vormen, dragen ze ook beperkingen over schaalbaarheid. Alle berichten en propaganda verliezen vaak zijn kracht na een bepaalde afstand. Natuurlijk zijn er met sociale media en de online wereld weinig fysieke grenzen aan het bereik, afgezien van waar iemands internetverbinding daalt. Voeg de opkomst van AI toe en er is ook niets om de schaalbaarheid te stoppen.

Dit artikel onderzoekt wat dit betekent voor samenlevingen en organisaties die geconfronteerd worden met AI-aangedreven informatiemanipulatie en bedrog.

De opkomst van de echokamer

Volgens het Pew Research Center krijgen ongeveer één-op-vijf Amerikanen hun nieuws van sociale media. In Europa is er een stijging van 11% geweest in mensen die sociale mediaplatforms gebruiken om toegang te krijgen tot nieuws. AI -algoritmen vormen de kern van deze gedragsverandering. Ze zijn echter niet gedwongen om beide kanten van een verhaal te presenteren, op de manier waarop journalisten worden getraind, en die mediaregulatoren nodig hebben. Met minder beperkingen kunnen sociale mediaplatforms zich concentreren op het serveren van inhoud die hun gebruikers leuk vinden, willen en reageren.

Deze focus op het onderhouden van oogbollen kan leiden tot een digitale echokamer en mogelijk gepolariseerde gezichtspunten. Mensen kunnen bijvoorbeeld meningen blokkeren waarmee ze het niet eens zijn, terwijl het algoritme automatisch gebruikersfeeds aanpast, zelfs het bewaken van de scrollingsnelheid, om het verbruik te verhogen. Als consumenten alleen inhoud zien waarmee ze het eens zijn, bereiken ze een consensus met wat AI hen laat zien, maar niet de bredere wereld.

Wat meer is, meer van die inhoud wordt nu synthetisch gegenereerd met behulp van AI -tools. Dit omvat meer dan 1.150 onbetrouwbare AI-gegenereerde nieuwswebsites die onlangs zijn geïdentificeerd door NewsGuard, een bedrijf dat gespecialiseerd is in informatiebetrouwbaarheid. Met weinig beperkingen aan de outputcapaciteit van AI, voelen al lang bestaande politieke processen de impact.

Hoe AI wordt ingezet voor bedrog

Het is eerlijk om te zeggen dat wij mensen onvoorspelbaar zijn. Onze meerdere vooroordelen en talloze tegenstrijdigheden spelen zich constant in elk van onze hersenen. Waar miljarden neuronen nieuwe verbindingen maken die de realiteit vormen en op hun beurt, onze meningen. Wanneer kwaadaardige acteurs AI toevoegen aan deze krachtige mix, leidt dit tot gebeurtenissen zoals:

  • Deepfake -video’s die zich verspreiden tijdens de Amerikaanse verkiezingen: AI -tools stellen cybercriminelen in staat om nepbeelden te maken, met mensen die bewegen en praten, met alleen tekstprompts. De hoge mate van gemak en snelheid betekent dat er geen technische expertise nodig is om realistische AI-aangedreven beelden te creëren. Deze democratisering bedreigt democratische processen, zoals getoond in de aanloop naar de recente Amerikaanse verkiezingen. Microsoft benadrukte activiteit uit China en Rusland, waar ‘dreigingsactoren werden waargenomen die generatieve AI integreren in hun Amerikaanse verkiezingsinvloeden.’
  • Stemklonen en wat politieke figuren zeggen: Aanvallers kunnen nu AI gebruiken om iemands stem te kopiëren, gewoon door een paar seconden van hun spraak te verwerken. Dat is wat er in 2023 met een Slowaakse politicus is gebeurd. Een nep -audio -opname verspreidde zich online, vermoedelijk met Michal Simecka die met een journaliste besprak hoe een aankomende verkiezing te repareren. Hoewel de discussie al snel nep bleek te zijn, gebeurde dit allemaal slechts enkele dagen voordat de peiling begon. Sommige kiezers hebben misschien hun stem uitgebracht terwijl ze geloofden dat de AI -video echt was.
  • LLMS Faken Public Sentiment: Tegenstanders kunnen nu zoveel talen communiceren als hun gekozen LLM, en ook op elke schaal. In 2020 werd een vroege LLM, GPT-3, getraind om duizenden e-mails te schrijven aan Amerikaanse staatswetgevers. Deze pleitten voor een mix van problemen van links en rechts van het politieke spectrum. Ongeveer 35.000 e-mails werden verzonden, een mix van door mensen geschreven en AI-geschreven. De responspercentages van de wetgever ‘waren statistisch niet te onderscheiden’ over drie aan de orde gestelde kwesties.

AI’s impact op democratische processen

Het is nog steeds mogelijk om veel AI-aangedreven misleidingen te identificeren. Of dat nu afkomstig is van een glitchy frame in een video, of een verkeerd uitgesproken woord in een toespraak. Naarmate de technologie vordert, wordt het echter moeilijker, zelfs onmogelijk om feiten van fictie te scheiden.

Factcontroles kunnen mogelijk follow-ups toevoegen aan nepposten op sociale media. Websites zoals Snopes kunnen doorgaan met het ontmaskeren van complottheorieën. Er is echter geen manier om ervoor te zorgen dat deze worden gezien door iedereen die de originele berichten heeft gezien. Het is ook vrijwel onmogelijk om de oorspronkelijke bron van nepmateriaal te vinden, vanwege het aantal beschikbare distributiekanalen.

Evolutie

Zien (of horen) is geloven. Ik zal het geloven als ik het zie. Laat het me zien, vertel het me niet. Al deze zinnen zijn gebaseerd op het evolutionaire begrip van de mens van de wereld. Namelijk dat we ervoor kiezen om onze ogen en oren te vertrouwen.

Deze zintuigen zijn meer dan honderden geëvolueerd, zelfs miljoenen jaren. Terwijl Chatgpt in november 2022 publiekelijk werd uitgebracht. Onze hersenen kunnen zich niet aanpassen aan de snelheid van AI, dus als mensen niet langer kunnen vertrouwen wat voor hen staat, is het tijd om ieders ogen, oren en geesten te onderwijzen.

Anders laat dit organisaties wijd open voor aanvallen. Werk is tenslotte vaak waar mensen de meeste tijd op een computer doorbrengen. Dit betekent personeelsbestand uitrusten met bewustzijn, kennis en scepsis wanneer geconfronteerd met inhoud die is ontworpen om actie te genereren. Of dat tijdens de verkiezingstijd politieke berichten bevat, of een werknemer vraagt ​​om procedures te omzeilen en een betaling te doen aan een niet -geverifieerde bankrekening.

Het betekent dat samenlevingen zich bewust maken van de vele manieren waarop kwaadwillende acteurs spelen op natuurlijke vooroordelen, emoties en instincten om te geloven wat iemand zegt. Deze spelen zich af in meerdere social engineering -aanvallen, waaronder phishing (‘het nummer één internetcriminaliteit’ volgens de FBI).

En het betekent dat individuen worden ondersteund om te weten wanneer ze moeten pauzeren, reflecteren en uitdagen wat ze online zien. Een manier is om een ​​AI-aangedreven aanval te simuleren, zodat ze uit de eerste hand ervaring krijgen met hoe het voelt en waar ze op moeten letten. Mensen vormen de samenleving, ze hebben alleen hulp nodig om zichzelf, organisaties en gemeenschappen te verdedigen tegen AI-aangedreven bedrog.


Thijs Van der Does