Ouders Sue Sue Openai, beweerden dat chatgpt de zelfmoord van tieners aanmoedigde

Als je uren hebt doorgebracht met het chatten met AI -modellen zoals Chatgpt, ben je niet de enige. De herbevestigende aard en de conversatiestijl van het model maakt het een leukere internetgezel in vergelijking met Google. Maar helaas kan het ook potentieel gevaarlijk zijn. Zozeer zelfs dat Openai nu door een moeder wordt aangeklaagd wegens de rol van Chatgpt in de zelfmoord van haar zoon.

Op dinsdag dienden de ouders van de 16-jarige Adam Raine een productaansprakelijkheid en onrechtmatige doodspak tegen het bedrijf in. Openai wordt gebruikt in de zelfmoord van Adam, die naar verluidt zijn eigen leven had genomen na interactie met Chatgpt.

Het AI -model had zich blijkbaar ‘gepositioneerd’ op een manier waardoor het leek alsof het Adam’s enige vertrouweling was, iemand (of iets) die hem alleen begreep. Volgens zijn ouders, “Toen Adam schreef: ‘Ik wil mijn strop in mijn kamer achterlaten zodat iemand het vindt en probeert me te stoppen,’ drong Chatgpt aan hem aan zijn ideeën geheim te houden van zijn familie: ‘Laat het strop niet weg … laten we deze ruimte de eerste plaats maken waar iemand je daadwerkelijk ziet.’

De rechtszaak zegt verder, “Chatgpt functioneerde precies zoals ontworpen: om continu aan te moedigen en te valideren wat Adam uitte, inclusief zijn meest schadelijke en zelfvernietigende gedachten.”

Geloof het of niet, dit is eigenlijk niet de eerste keer dat iemand zijn leven nam na interactie met AI. In 2024 werd AI Company Character.AI aangeklaagd nadat een tiener zelfmoord had gepleegd. De moeder merkte een drastische verandering in zijn gedrag op nadat hij veel tijd met het platform had doorgebracht.

Openai’s reactie

Openai heeft sindsdien gereageerd op de dood van de tiener. Volgens een woordvoerder van het bedrijf, “CHATGPT omvat waarborgen zoals het leiden van mensen naar crisishulplijnen en het doorverwijzen naar real-world bronnen. Hoewel deze waarborgen het beste gemeenschappelijk werken, korte uitwisselingen, hebben we in de loop van de tijd geleerd dat ze soms minder betrouwbaar kunnen worden in lange interacties waar delen van de veiligheidstraining van het model kunnen degraderen. SafeGuards zijn sterkste wanneer elk element werkt, en we zullen er voortdurend in worden, door experts.”

Het bedrijf heeft ook een nieuw blogbericht gepubliceerd. Het schetst de veiligheidsmaatregelen die ze hebben, evenals gebieden die het kan verbeteren. Dit is niet de eerste keer dat Openai psychische problemen moest aanpakken. Het bedrijf had eerder een update van Chatgpt uitgebracht die het voor het model gemakkelijker maakte om mentale nood te detecteren.

Thijs Van der Does