OpenAI heeft nog steeds te maken met het lekken van chats

Grote taalmodellen (LLM’s) waarop AI-chatbots draaien, behoren waarschijnlijk tot de grootste opslagplaatsen van informatie op internet. Deze informatie kan onschadelijk of zeer gevoelig zijn. OpenAI, het bedrijf achter ChatGPT, heeft nu te maken met het extra drama van uitgelekte gesprekken waarbij gevoelige informatie terechtkomt.

Het is belangrijk om te weten dat dit nog steeds een verhaal in ontwikkeling is. Het is dus heel goed mogelijk dat er nieuwe details naar voren komen die het traject van dit recente drama volledig kunnen veranderen. Voorlopig bestaat het verhaal uit twee delen.

OpenAI heeft nog steeds te maken met gelekte gesprekken via ChatGPT

Het eerste deel van het verhaal gaat over een ArsTechnica-lezer die een aantal behoorlijk verontrustende schermafbeeldingen laat zien. Volgens de publicatie maakt de betreffende lezer veelvuldig gebruik van ChatGPT. Welnu, nadat hij zich op een dag bij de dienst had aangemeld, merkte de lezer daar verschillende gesprekken op die uit het niets leken te ontstaan. Met ChatGPT hadden ze deze gesprekken niet.

Dat is al raar genoeg, maar het wordt nog erger als we ons bewust worden van de inhoud van de gesprekken. Bij een van de gesprekken was een medewerker van een apotheek betrokken die ChatGPT gebruikte om problemen met een medicijnportaal op te lossen. Als je naar het geredigeerde gesprek kijkt, is het duidelijk dat de medewerker erg gefrustreerd was.

Wat echter nog schokkender is aan het gesprek, is dat de werknemers tijdens het gesprek een hoop gevoelige informatie leken te hebben vrijgegeven. Dit omvat verschillende gebruikersnamen en wachtwoorden, samen met de naam van de portal die ze gebruikten. In de verkeerde handen zou dit dus verwoestend kunnen zijn voor de apotheek in kwestie en voor alle mensen die afhankelijk zijn van hun medicijnen.

ChatGPT heeft een gesprek gelekt

Dit is slechts een van de gesprekken die via ChatGPT zijn gelekt en we weten niet helemaal zeker hoe wijdverspreid dit is. Dit is in ieder geval niet iets dat iemand wil zien. Ook al is dat niet de bedoeling, toch hebben mensen soms de neiging om gevoelige informatie in hun chatbotgesprekken te stoppen.

OpenAI reageerde

Nu het tweede deel van het verhaal. Dit lijkt op het eerste gezicht een zeer verwoestende gang van zaken. Het lijkt er echter op dat de ArsTechnica-publicatie iets te vroeg kwam. Android Authority nam contact op met OpenAI over de situatie en het bedrijf reageerde.

“ArsTechnica publiceerde voordat onze fraude- en beveiligingsteams hun onderzoek konden afronden, en hun rapportage is helaas onnauwkeurig. Op basis van onze bevindingen zijn de inloggegevens van de gebruikersaccounts gecompromitteerd en heeft een kwaadwillende persoon vervolgens het account gebruikt. De chatgeschiedenis en de bestanden die worden weergegeven, zijn gesprekken die voortkomen uit misbruik van dit account, en het was geen geval waarbij ChatGPT de geschiedenis van een andere gebruiker liet zien.”

Het lijkt er dus op dat ChatGPT niet lukraak gesprekken doorgeeft aan andere gebruikers, alsof het pokerkaarten uitdeelt. De gebruiker in kwestie lijkt te zijn gehackt door een slechte acteur. Deze onbekende hacker lekte vervolgens de gesprekken.

Hoewel we geen bewijs hebben om OpenAI te betwisten, klinkt de verklaring een beetje vreemd, maar lijkt deze onvolledig. De slechte acteur koos ervoor om de gesprekken naar willekeurige mensen te lekken – dat lijkt raar. In ieder geval lijkt het erop dat ChatGPT niet willekeurig gesprekken lekt naar andere ChatGPT-gebruikers. Het is duidelijk dat dit verhaal over slechte acteurs meer inhoudt, maar gebruikers kunnen er hopelijk gerust op zijn.

Het is belangrijk niet om persoonlijke informatie te delen met elke AI-chatbot. Je weet nooit waar die gegevens terechtkomen. Helaas voor de apotheekmedewerker staan ​​de inloggegevens nu op OpenAI-servers,

Ik zal u op de hoogte houden van dit verhaal zodra er meer details bekend worden.

Thijs Van der Does