OpenAI kreeg onlangs te maken met verwarring en terugslag bij gebruikers nadat het stilletjes app-suggesties had geïntroduceerd in ChatGPT-gesprekken. De functie was bedoeld om, indien relevant, geïntegreerde apps zoals Booking.com of Expedia zichtbaar te maken. Het trok echter onmiddellijk vuur omdat de prompts op onaangekondigde advertenties leken. Na deze negatieve reactie schakelde OpenAI tijdelijk de controversiële ChatGPT-app-suggesties uit, waarbij werd toegegeven dat de uitvoering “achterbleef” bij de verwachtingen van de gebruiker vanwege het advertentie-achtige uiterlijk.
De reacties van gebruikers dwingen OpenAI om ChatGPT AI-app-suggesties uit te schakelen
Het kernprobleem concentreerde zich op de gebruikerservaring van de AI-chatbot. Voor veel gebruikers, vooral degenen die voor een abonnement betaalden, vertegenwoordigde ChatGPT een schone, advertentievrije omgeving. Toen deze merksuggesties verschenen (bijvoorbeeld door de Zillow-app aan te bevelen tijdens een huisaankoopgesprek) beschouwden gebruikers ze als de eerste officiële, onaangekondigde advertenties van het platform. Screenshots circuleerden snel online, waardoor de controverse werd aangewakkerd en het vertrouwen onder de gebruikers werd aangetast.
De situatie leidde tot een intern debat onder leidinggevenden van OpenAI. Vice-president Nick Turley ontkende snel dat het bedrijf ‘live tests voor advertenties’ uitvoerde. Hij hield vol dat de suggesties eenvoudigweg verkeerd waren geïdentificeerd. Hij verzekerde gebruikers dat het bedrijf hun vertrouwen op prijs stelde en dat het in de toekomst zorgvuldig zou omgaan met het genereren van inkomsten.
Gebruikers zagen de functie aan voor ongewenste advertenties
Gebruikers voerden echter aan dat de bedoeling van het bedrijf er niet toe deed. Uiteindelijk was het de perceptie van mensen over reclame die telde. Chief Research Officer Marc Chen hanteerde een meer verzoenende benadering. Hij erkende het sentiment van de gebruiker en was het ermee eens dat alles wat op een advertentie leek, met zorg moest worden behandeld. Als reactie hierop heeft OpenAI de functie voor app-aanbevelingen op ChatGPT afgesloten. Chen kondigde ook plannen aan om zowel de nauwkeurigheid van het model bij het leveren van suggesties te verbeteren als om opties te onderzoeken voor het introduceren van gebruikersbedieningen. Deze potentiële opties zouden mensen in staat moeten stellen de aanbevelingen volledig te verminderen of uit te schakelen.
Deze snelle terugtrekking suggereert dat OpenAI het gevoelige evenwicht erkent dat nodig is bij het introduceren van commerciële elementen in een platform dat is gebouwd op eenvoud. De controverse viel samen met berichten van CEO Sam Altman die een interne ‘code rood’ uitvaardigde. Dit laatste was bedoeld om prioriteit te geven aan het verbeteren van de kernkwaliteit van het model, door andere ambitieuze projecten tijdelijk uit te stellen, waaronder vroege reclameplannen.
De boodschap is duidelijk: hoewel een vorm van inkomsten genereren waarschijnlijk onvermijdelijk is, moet OpenAI een transparante manier vinden om commerciële inhoud te presenteren. Als app-suggesties terugkeren, moeten ze er fundamenteel anders uitzien en aanvoelen dan de huidige implementatie. Anders zal het bedrijf dezelfde gebruikersreactie tegenkomen.