Blijkbaar werden miljoenen Redditors opgenomen in een geheim kunstmatig experiment. Onderzoekers kregen geen kennis of toestemming van Redditors voor dit experiment. Een thread op Reddit heeft dit experiment onlangs blootgelegd en heeft op internet verontwaardiging opgeleverd en een behoorlijk fel debat over AI -ethiek, gegevenstoestemming en de verantwoordelijkheden van technische onderzoekers geregeerd.
Deze studie werd uitgevoerd door onderzoekers van Stanford en de Universiteit van Pennsylvania. Die Reddit gebruikte als een live testterrein om te evalueren hoe AI-genoemde inhoud echte gebruikers zou beïnvloeden. Er waren meer dan 47 miljoen berichten en opmerkingen geanalyseerd in deze studie en door AI gegenereerde antwoorden werden in het geheim in Reddit-threads geïnjecteerd om te observeren hoe gebruikers ermee omgingen.
Tot niemand verrassing is er veel terugslag over dit experiment, waarbij critici beweren dat het een duidelijke inbreuk op ethische normen is, met name rond geïnformeerde toestemming en gebruikersautonomie.
“Onjuist en zeer onethisch experiment dat zeer verkeerd is op zowel moreel als wettelijk niveau.”
-Ben Lee, Chief Legal Officer bij Reddit
Dit is een complexe situatie vanwege het grijze gebied tussen openbare gegevens en ethisch AI -gebruik
We rapporteren al maanden, hoe AI -bedrijven alles gebruiken dat overal op internet wordt gepubliceerd, om hun chatbots te trainen. Inclusief het stelen van inhoud van sites zoals deze. En dat hoort bij wat dit een complexe situatie maakt.
U ziet, er zijn ethische AI -gegevens die kunnen worden gebruikt, maar er zijn ook openbare gegevens, waarvan Reddit -berichten worden beschouwd. Dit betekent echter niet dat Redditors ‘heeft ingestemd met deel uit te maken van een gedragsexperiment. Vooral niet een die met AI-gegenereerde manipulatie betrokken is.
De onderzoekers van deze studie hebben een verklaring vrijgegeven en hebben ook een beschrijving van het onderzoek gegeven:
In de afgelopen maanden hebben we meerdere accounts gebruikt op berichten die op CMV zijn gepubliceerd. Ons experiment beoordeelde de overtuiging van LLM in een ethisch scenario, waar mensen om argumenten vragen tegen opvattingen die ze hebben. Bij het commentaar hebben we niet bekendgemaakt dat een AI werd gebruikt om opmerkingen te schrijven, omdat dit de studie onhaalbaar zou hebben gemaakt. Hoewel we zelf geen opmerkingen hebben geschreven, hebben we elke commentaar die gepost was om ervoor te zorgen dat ze niet schadelijk waren handmatig beoordeeld.
We erkennen dat ons experiment de gemeenschapsregels heeft overtreden tegen AI-gegenereerde opmerkingen en verontschuldigt zich. Wij geloven echter dat het, gezien het hoge maatschappelijke belang van dit onderwerp, cruciaal was om een dergelijke studie uit te voeren, zelfs als dit de regels niet had gehoorzamen.
Deze groep onderzoekers vroeg om anoniem te blijven. We hebben ook geleerd dat de rekeningen die werden gemaakt om deze door AI gegenereerde inhoud te posten, zich voordeden als slachtoffers van verkrachting, trauma-counselors die gespecialiseerd zijn in misbruik, een zwarte man die tegenover Black Lives Matter, naast andere persona’s is. Al deze accounts zijn opgeschort en veel van de opmerkingen zijn verwijderd uit Reddit.
“Dit is een van de ergste schendingen van onderzoeksethiek die ik ooit heb gezien.”
-Casey Fiesler, een informatiewetenschapper aan de Universiteit van Colorado
Fiesler ging verder met de staat op Bluesky dat “het manipuleren van mensen in online gemeenschappen met bedrog, zonder toestemming, niet ‘laag risico’ is en, zoals blijkt uit het discours in deze Reddit -post, resulteerde in schade.”
Zoals je misschien had verwacht, draait het belangrijkste thema in de Reddit -thread hierover, helemaal om vertrouwen.