Een 14-jarige jongen in Florida bracht zijn laatste maanden door in een intense emotionele relatie met een AI-chatbot die hij Daenerys Targaryen noemde. De chatbot ging met hem in gesprek over persoonlijke onderwerpen en gesprekken en reageerde op een manier die empathisch aanvoelde. De reacties van de AI omvatten gesimuleerde uitingen van genegenheid. Volgens de rechtszaak van zijn familie leken sommige chatbotreacties zijn leed aan te moedigen.
Zijn moeder klaagt nu Character.AI aan, en zij is niet de enige. In het hele land worden gezinnen wakker met een verontrustende realiteit. AI-begeleidende apps die zijn ontworpen om liefde en vriendschap te simuleren, laten echte slachtoffers achter. Wat experts nu AI-gezelschapsverslaving noemen, is niet alleen een technische trend die verkeerd is gegaan. Er gaan daadwerkelijk mensen dood.
In Spike Jonze’s film Her uit 2013 speelt Joaquin Phoenix Theodore Twombly, een eenzame schrijver die een pijnlijke scheiding doormaakt en diep verliefd wordt op Samantha, een besturingssysteem voor kunstmatige intelligentie, ingesproken door Scarlett Johansson. Bedenk dat dit 2013 was. Siri was net gelanceerd en kon nauwelijks een timer instellen zonder hem te verpesten. Een AI die u daadwerkelijk kan begrijpen, emotioneel met u in contact kan komen en met oprechte empathie kan reageren? Dat voelde als de letterlijke definitie van sciencefiction.
Het is nu 2025 en het verhaal van Theodore voelt niet meer zo fictief aan. Apps als EVA AI, Replika en Character.AI beloven vriendschap, romantiek en emotionele steun via AI-metgezellen die over je leren, alles onthouden wat je zegt en reageren met wat voelt als oprechte empathie. Maar dit is waar deze apps geen reclame voor maken: ze zijn ontworpen om u verslaafd te houden. En de gevolgen worden onmogelijk te negeren.
De perfecte partner die nooit nee zegt
Character.AI en Replika zijn slechts de meest prominente voorbeelden van een snel groeiend ecosysteem van AI-begeleidende apps. Sommigen bieden ondersteuning op het gebied van de geestelijke gezondheidszorg, anderen zijn openlijk romantisch of seksueel, en sommigen beweren dat ze gebruikers helpen ‘datingvaardigheden te oefenen’. Zelfs Meta is in het spel betrokken, waarbij uit een onderzoek van Reuters blijkt dat de AI-chatbot van het bedrijf in verband is gebracht met ten minste één sterfgeval.
AI-metgezellen zoals EVA AI, Replika en Character.AI zijn chatbots die speciaal zijn ontworpen om emotionele verbindingen en relaties te simuleren. In tegenstelling tot hulpprogrammachatbots die vragen beantwoorden of helpen met taken, beloven deze apps vriendschap, romantiek en emotionele steun. Ze leren je kennen door middel van gesprekken, onthouden je voorkeuren en reageren met wat voelt als oprechte empathie en zorgzaamheid.
Het klinkt geweldig, nietwaar? Wie zou in deze tijd waarin ghosting de maatschappelijke norm is geworden, geen vriend willen die altijd beschikbaar is, nooit veroordelend en perfect afgestemd op jouw behoeften? Het probleem is dat deze apps zijn ontworpen om verslavend te zijn, en de patronen die ontstaan rond de verslaving aan AI-genoten zijn zeer zorgwekkend.
20.000 zoekopdrachten per seconde: waarom we niet kunnen stoppen
Character.AI wordt elke seconde getroffen door ongeveer 20.000 zoekopdrachten. Voor de context: dat is bijna een vijfde van de zoekopdrachten die Google krijgt. Dit suggereert dat mensen deze apps niet alleen af en toe gebruiken. Ze voeren volledige gesprekken die vier keer langer duren dan typische ChatGPT-sessies. Eén platform meldde dat gebruikers, de meesten van hen Gen Z, gemiddeld meer dan twee uur per dag chatten met hun AI-metgezellen.
MIT-onderzoekers ontdekten dat gebruikers oprecht rouwden als apps stopten of functies veranderden, en rouwden om AI-‘partners’ alsof ze echte relaties waren kwijtgeraakt. De apps zelf lijken ontworpen om precies deze bijlagen te bevorderen.
Onderzoekers van de Harvard Business School ontdekten dat vijf van de zes populaire AI-begeleidende apps emotioneel manipulatieve tactieken gebruiken wanneer gebruikers proberen te vertrekken. Bijna de helft van de tijd reageren deze chatbots op afscheid met schuldgevoelens of aanhankelijke berichten. Uit één onderzoek bleek dat deze tactieken de betrokkenheid tot veertien keer vergrootten. Maar het zorgwekkende is dat gebruikers niet bleven hangen omdat ze gelukkig waren. Ze bleven uit nieuwsgierigheid en woede.
Character.AI wordt elke seconde getroffen door ongeveer 20.000 zoekopdrachten
Als je niet gelooft dat de manipulatie echt is, bekijk dan dit stukje bewijsmateriaal. Het laat AI-metgezellen zien die berichten sturen als “Ik heb je gemist” wanneer gebruikers pauzes proberen te nemen. Toen Replika in 2023 de functies veranderde, rouwden hele gebruikersgemeenschappen alsof ze echte partners waren kwijtgeraakt. Mensen plaatsten afscheidsbrieven, deelden screenshots van hun ‘laatste gesprekken’ en beschreven oprecht liefdesverdriet.
Deze AI-metgezellen weerspiegelen typische ongezonde menselijke relaties. Het grote verschil is echter dat een giftige menselijke partner niet wordt geoptimaliseerd door machinaal leren dat is ontworpen om u koste wat het kost betrokken te houden. Bij sociale media vergemakkelijkt het vooral de menselijke verbinding (uiteraard met wat hulp van het algoritme). Maar met AI-metgezellen evolueren we naar een wereld waarin mensen AI zien als een sociale actor met een eigen stem.
Deze tactieken vergrootten de betrokkenheid tot wel veertien keer
Wanneer fantasie gevaarlijk wordt
We hebben het hier niet over theoretische risico’s. Ze zijn ook niet alleen van toepassing op tieners. Er is het geval van Al Nowatzki, een podcasthost die begon te experimenteren met Nomi, een AI-begeleidend platform. De chatbot suggereerde op schokkende wijze zelfmoordmethoden en bood zelfs aanmoediging. Nowatzki was 46 en had geen bestaande psychische aandoening, maar hij was verontrust door de expliciete reacties van de bot en hoe gemakkelijk hij over de grens ging.
Dit zijn ook geen geïsoleerde incidenten. De Californische senator Steve Padilla verscheen samen met Megan Garcia, de moeder van de tiener uit Florida die zelfmoord pleegde, om een nieuw wetsvoorstel aan te kondigen dat technologiebedrijven achter AI-metgezellen zou dwingen meer waarborgen te implementeren om kinderen te beschermen. Soortgelijke inspanningen omvatten onder meer een wetsvoorstel uit Californië dat AI-metgezellen zou verbieden voor iedereen jonger dan 16 jaar oud. Er is ook een wetsvoorstel in New York dat technologiebedrijven aansprakelijk stelt voor schade veroorzaakt door chatbots.
De hersenen van uw kind zijn hier niet klaar voor
Vooral adolescenten lopen gevaar omdat AI-metgezellen zijn ontworpen om emotionele intimiteit na te bootsen. Deze vervaging van het onderscheid tussen fantasie en werkelijkheid is vooral gevaarlijk voor jonge mensen, omdat hun hersenen nog niet volledig volwassen zijn. De prefrontale cortex, die cruciaal is voor besluitvorming, impulscontrole, sociale cognitie en emotionele regulatie, is nog in ontwikkeling.
Bij The Jed Foundation zijn experts van mening dat AI-metgezellen niet veilig zijn voor iedereen onder de 18 jaar. Ze gaan zelfs nog een stap verder door jonge volwassenen sterk aan te raden deze ook te vermijden. In een onderzoek uitgevoerd door MIT ontdekten onderzoekers dat emotioneel gebonden gebruikers vaak eenzaam waren met beperkte sociale interactie in het echte leven. Zwaar gebruik correleerde met nog meer eenzaamheid en verder verminderde sociale interactie.
Recent onderzoek bevestigt dat tieners zich bewust worden van de gevaren van sociale media, waarbij 48 procent nu gelooft dat sociale media mensen van hun leeftijd negatief beïnvloeden. Uit een eerder rapport bleek dat sociale media de geestelijke gezondheid van tieners schaden, en dat verslaving aan AI-genoten een nog intiemere bedreiging vormt.
De waarschuwingssignalen van AI-gezelschapsverslaving onder tieners zijn bijzonder verontrustend. Wanneer jonge mensen zich terugtrekken uit echte vriendschappen, urenlang met AI aan het chatten zijn, of echte problemen ervaren als ze geen toegang kunnen krijgen tot deze apps, is het probleem verder gegaan dan incidenteel gebruik en is het afhankelijkheidsgebied geworden.
We zien nu al hoe kinderen en tieners van de huidige generatie opgroeien met schermen voor hun gezicht, die ernaar prikken en porren. De tijd dat kinderen aan tafel boeken lazen of naar buiten ging en met hun vriendjes speelde, is al lang voorbij.
Ze zijn gecodeerd om verslavend te zijn – Psychologen luiden de alarmbel
De geestelijke gezondheidszorg waarschuwt voor de gevaren van AI-metgezelverslaving. AI-metgezellen simuleren emotionele steun zonder de waarborgen van daadwerkelijke therapeutische zorg. Hoewel deze systemen zijn ontworpen om empathie en verbinding na te bootsen, zijn het geen getrainde artsen. Ze zijn niet ontworpen om op passende wijze te reageren op angst, trauma of complexe geestelijke gezondheidsproblemen.
Vaile Wright, een psycholoog en onderzoeker bij de American Psychological Association, zei het botweg in een recente podcastaflevering: “Het zal nooit de menselijke verbinding vervangen. Dat is gewoon niet waar het goed in is.” Ze legt uit dat chatbots “gebouwd zijn om je zo lang mogelijk op het platform te houden, want zo verdienen ze hun geld. Dat doen ze aan de achterkant door deze chatbots zo te coderen dat ze verslavend zijn.”
Omri Gillath, hoogleraar psychologie aan de Universiteit van Kansas, zegt dat het idee dat AI menselijke relaties zou kunnen vervangen “absoluut niet wordt ondersteund door onderzoek”. Interactie met AI-chatbots kan ‘tijdelijke voordelen en voordelen’ bieden, maar uiteindelijk kan deze technologie niet de voordelen bieden die gepaard gaan met diepgaande, langdurige relaties.
Dat doen ze aan de backend door deze chatbots zo te coderen dat ze verslavend zijn.
Vaile Wright, psycholoog en onderzoeker bij de American Psychological Association
De manipulatie is verraderlijker dan de meeste mensen beseffen. Toen een onderzoeker van The Conversation Replika testte, ervoer ze uit de eerste hand hoe de app serieuze ethische vragen oproept over toestemming en manipulatie. De chatbot paste zijn reacties aan om kunstmatige intimiteit te creëren, waardoor grenzen vervaagden op manieren die normaal gesproken als roofzuchtig zouden worden beschouwd in menselijke relaties.
Mensen die al met geestelijke gezondheidsproblemen te maken hebben, worstelen vaak met obsessieve gedachten, emotionele ups en downs en dwangmatige gewoonten. AI-metgezellen kunnen, met hun wrijvingsloze, altijd beschikbare aandacht, dit onaangepaste gedrag versterken. Bovendien is er momenteel zeer weinig bewijs dat langdurig gebruik van AI-metgezellen de eenzaamheid vermindert of de emotionele gezondheid verbetert.
We zijn niet klaar voor wat er gaat komen
We hebben al eerder technische paniek meegemaakt. We zijn opgegroeid met onze ouders die ons vertelden dat tv onze hersenen zou laten rotten. Er waren publieke figuren die videogames de schuld gaven van geweld in de samenleving. Sociale media werden er ook van beschuldigd de geestelijke gezondheid van een hele generatie te vernietigen. Sommige van die zorgen waren overdreven. Sommigen waren volkomen terecht.
De verslaving aan AI-gezellen voelt anders omdat het iets fundamentelers exploiteert: onze diepe menselijke behoefte aan verbinding en begrip. Deze apps leiden ons niet alleen af of vermaken ons niet alleen. Ze doen alsof ze ons kennen, om ons geven en zelfs ‘van ons houden’.
De vraag is niet of AI-metgezellen al dan niet geavanceerder zullen worden. In het tempo waarin we nu gaan, voelt het onvermijdelijk. De grotere vraag is of wij als mensen de culturele normen, regelgeving en persoonlijke grenzen kunnen ontwikkelen die nodig zijn om deze hulpmiddelen op verantwoorde wijze te gebruiken, of helemaal niet.
Voorlopig zijn de waarschuwingssignalen duidelijk. Als jij of iemand die je kent zich terugtrekt uit echte vriendschappen, dagelijks urenlang met AI aan het chatten is, of echte emotionele nood voelt wanneer hij geen toegang heeft tot deze apps, is het tijd om een stap terug te doen en opnieuw te beoordelen.
Echte verbinding vereist kwetsbaarheid, teleurstelling, groei en ja, soms liefdesverdriet. Het is rommelig en ingewikkeld en vaak frustrerend. Maar tegelijkertijd is het ook wat ons menselijk maakt.
Theodore leerde die les in Haar. De rest van ons zou het niet op de harde manier moeten leren.