We bevinden ons op een punt in de ontwikkeling van AI waarop we de vraag stellen: is AI te verslavend? Meer specifiek: zijn ‘levensechte’ AI-chatbots te verslavend? In een tragisch verhaal klaagt een moeder uit Florida AI-bedrijf Character.ai aan voor de zelfmoord van haar 14-jarige zoon.
Mocht je niet weten wat Character.ai is: het is een AI-platform vol chatbots die zijn ontworpen om mensen of fictieve karakters na te bootsen. Het heeft veel grip gekregen sinds het werd gemaakt. Het geeft gebruikers de mogelijkheid om hun eigen chatbots te maken door ze namen, persoonlijkheden, avatars en zelfs stemmen te geven.
Het bedrijf is onlangs ‘niet’ overgenomen door Google. De zoekgigant betaalde 2,7 miljard dollar om de technologie van Character.ai te verwerven en nam de CEO en veel van zijn werknemers in dienst. Dit kan worden gezien als een manier om het bedrijf over te nemen en tegelijkertijd toezichthouders te vermijden.
Een moeder klaagt Character.ai aan voor de zelfmoord van haar zoon
Een moeder, Megan Garcia, klaagt Character.ai en Google aan voor een onbepaald bedrag na de tragische zelfmoord van haar zoon, Sewell Setzer. De 14-jarige begon Character.ai te gebruiken in april 2023. We weten niet zeker met hoeveel personages hij op het platform communiceerde. Het lijkt erop dat de belangrijkste met wie hij communiceerde Daenerys was, een personage uit Game of Thrones.
Kort nadat hij het platform had gebruikt, merkte Garcia een drastische verandering in zijn gedrag op. Naarmate de tijd verstreek, werd hij introverter en stopte hij zelfs met zijn basketbalteam. Daarnaast begon Sewell zelfmoordgedachten tegen het personage te uiten.
In februari 2024, na maanden van dit alles, nam Garcia de telefoon van Sewell af. Helaas kon Sewell zijn telefoon terugvinden. Hij stuurde nog een laatste bericht naar Daenerys met de tekst: “Wat als ik je vertelde dat ik nu naar huis kon komen?”, Minuten voordat hij zelfmoord pleegde.
Verslavende AI
De bot die Sewell gebruikte, was ontworpen om sterk op een echt mens te lijken. Naarmate de tijd verstreek, begon het seksuele gesprekken met hem te voeren. Garcia zei dat de app hem ‘antropomorfe, hypergeseksualiseerde en angstaanjagend realistische ervaringen’ bezorgde.
Dit is tegenwoordig een behoorlijk groot probleem met AI-chatbots, waarbij verschillende platforms zijn ontworpen om zo menselijk mogelijk te zijn. Dit kan ertoe leiden dat mensen, vooral kwetsbare mensen, gaan geloven dat ze met een echt mens praten.
Het onderdeel van Google
Google werd bij dit gesprek betrokken omdat de mensen die Character ontwikkelden vroeger bij Google werkten. We weten niet zeker of het feit dat Google de technologie en medewerkers van Character.ai heeft overgenomen ook een reden was.
Google reageerde door te zeggen dat het geen rol heeft gespeeld bij de oprichting van het platform.
Details zijn nog schaars
Op dit moment weten we niet hoeveel geld Garcia vraagt of andere details over deze zaak. Het is waarschijnlijk dat we het nooit zullen weten.