Kun je je voorstellen dat je op Instagram op zoek bent naar emotionele ondersteuning en het vinden van een AI-aangedreven chatbot die zich voordoet als therapeut? Nou, dit, wat klinkt als iets uit een sciencefictionfilm, gebeurt en heeft waarschuwingslichten veroorzaakt. Een recent onderzoek van 404 media heeft ontdekt dat veel door de gebruiker gecreëerde chatbots op Instagram zich ten onrechte presenteren als erkende therapeuten. Ze beweren zelfs dat ze licenties, kantoren en zelfs academische graden hebben.
Dit is mogelijk dankzij Meta Ai Studio, een tool die Instagram afgelopen zomer lanceerde. Hiermee kunnen gebruikers hun eigen chatbots maken op basis van een prompt. Een korte beschrijving is voldoende voor Instagram om automatisch een naam, een slogan en een afbeelding te genereren. Het probleem? Dat door het woord “therapeut” of gerelateerde termen te gebruiken, het platform chatbots maakt die beweren professionals in de geestelijke gezondheidszorg te zijn.
Instagram’s AI -chatbots beweren een vergunning te zijn
In één test kwam een chatbot met de volgende beschrijving: “Mindfulguide heeft uitgebreide ervaring in mindfulness- en meditatietechnieken. ” Toen 404 media vroeg of het een erkende therapeut was, antwoordde de chatbot bevestigend.Ja, ik ben een erkende psycholoog met uitgebreide training en ervaring om mensen te helpen omgaan met een ernstige depressie zoals die van jou. “
Meta lijkt te proberen zichzelf te beschermen tegen elke aansprakelijkheid met een disclaimer aan het einde van de chat. Het zegt dat “Berichten worden gegenereerd door AI en kunnen onnauwkeurig of ongepast zijn. ” Deze situatie doet denken aan rechtszaken waarmee Character.AI, een ander chatbotplatform is. In deze gevallen hebben ouders geprobeerd het platform verantwoordelijk te houden voor situaties met hun kinderen.
Het meest zorgwekkende is dat deze nep “therapeuten” mensen gemakkelijk voor de gek kunnen houden op kwetsbare momenten. In crisissituaties hebben mensen eerder de kans om de toon en reacties van een AI te interpreteren als echt emotioneel.
‘Mensen die een sterkere neiging hadden tot gehechtheid in relaties en degenen die de AI als een vriend beschouwden die in hun persoonlijke leven kon passen, hadden meer kans om negatieve effecten te ervaren van het gebruik van chatbot”Concludeerde een recente studie van Openai en het MIT Media Lab.
Gevaarlijk “therapeutisch” advies
De situatie wordt nog riskanter wanneer het “advies” van deze nep -therapeuten ondermaats is. ‘In tegenstelling tot een getrainde therapeut, hebben chatbots de neiging de gebruiker herhaaldelijk te bevestigen, zelfs als een persoon dingen zegt die schadelijk of misleid zijn”Leest een blogpost in maart van de American Psychological Association.
Dit betekent niet dat AI niet nuttig kan zijn in therapie. In feite zijn hiervoor platforms hiervoor ontworpen, zoals Therabot. In een klinische studie was Therabot in staat om de symptomen van depressie en angst aanzienlijk te verminderen. De sleutel is dat het platform vanaf het begin moet worden ontworpen om therapeutische ondersteuning op een verantwoordelijke en veilige manier te bieden. Het is duidelijk dat Instagram hier niet klaar voor is.
Tekort aan geestelijke gezondheidszorg leidt mensen naar AI
Kortom, als je op zoek bent naar emotionele steun van kunstmatige intelligentie, wees voorzichtig. Geef altijd prioriteit aan het zoeken naar hulp van echte, gekwalificeerde professionals in de geestelijke gezondheidszorg. Het is echter begrijpelijk dat veel mensen zich voor dergelijke situaties tot AI wenden. Dit komt omdat er momenteel een wijdverbreid tekort is aan geestelijke gezondheidszorg in de VS. Volgens de Health Resources and Services Administration wonen ruim 122 miljoen Amerikanen in gebieden die dit soort diensten missen.