Net als olie en water zijn er dingen die gewoon niet mengen. AI en privacy zijn er twee van. Er zijn verschillende AI-tools en -functies die gewoonweg een privacynachtmerrie schreeuwen. Nou, dat was waar voor een populaire applicatie die net op de markt is gekomen. De ChatGPT macOS-app bewaarde gesprekken in platte tekst.
Als dit bekend klinkt, dan is Microsoft net door de houtversnipperaar gehaald voor iets soortgelijks. De indrukwekkende en nogal griezelige Recall-functie bleek informatie op te slaan op de computers van gebruikers in een gemakkelijk te lezen tekstdocument. Dit betekent dat als iemand toegang krijgt tot de computer van die gebruiker, hij dat document kan extraheren en in principe een debriefing kan krijgen van ALLES wat hij heeft gedaan. Microsoft heeft de functie teruggetrokken en heeft deze sindsdien voor onbepaalde tijd opgeschort.
De ChatGPT macOS-app bewaarde gesprekken in platte tekst
AI voor consumenten verplaatst zich langzaam van datacenters naar apparaten. Je kunt niet ontkennen dat het handig is om krachtige AI op je telefoon of computer te hebben zonder dat je verbinding met internet hoeft te maken. Daarom is er zo’n grote push voor AI op apparaten.
De bedrijven die deze technologieën pushen, zijn echter niet open en eerlijk over wat ze moeten doen om de gegevens op het apparaat te houden. De zet van Microsoft was roekeloos en het lijkt erop dat OpenAI niet heeft geleerd van de fout van zijn weldoener. Pedro José Pereira Vieito plaatste een bericht op Threads waarin de ChatGPT macOS-app gesprekken in platte tekst opslaat op de computer.
Pereira ontwierp een app die toegang kon krijgen tot deze gesprekken en deze kon weergeven. Jay Peters van The Verge kon dit aantonen en bevestigen dat het waar is. Nadat The Verge contact opnam met OpenAI, kon het bedrijf enkele wijzigingen aanbrengen en het blokkeren.
Dus, probleem opgelost… toch?
Oké, OpenAI heeft het probleem opgelost en de dag gered. Geweldig, maar het punt is dat het fundamentele probleem niet is opgelost. Zowel Microsoft als OpenAI zijn betrapt op het volledig roekeloos omgaan met de gegevens van hun gebruikers, en we komen er pas achter als externe entiteiten hun systemen onderzoeken en rapporteren. Dus deze bedrijven waren er helemaal blij mee dat deze beveiligingsproblemen op onze apparaten bestonden.
We kunnen alleen maar zeggen dat we geluk hebben dat de mensen die deze kwetsbaarheden vinden, goede Samaritanen zijn en geen hackers. Nogmaals, Pereira heeft een app ontworpen die die data kon extraheren. Wat houdt iemand tegen om een app te ontwikkelen die die data kan extraheren en ze stiekem rechtstreeks naar hen kan sturen? Dit soort dingen gebeuren.
Het belangrijkste probleem is dat grote bedrijven producten blijven lanceren met flagrante beveiligingsproblemen en pas actie ondernemen als ze worden ontdekt. Zijn dit niet de bedrijven die opscheppen over topbeveiliging in keynotes? We vertrouwen ze impliciet omdat het Microsoft is of omdat het Google is of omdat het Apple is. Dit zijn bedrijven met een omzet van meerdere biljoenen dollars, dus ze weten ogenschijnlijk wel het een en ander over het veilig houden van onze gegevens. Ze bewijzen echter steeds dat ze dat niet weten.
Gemiddelde gebruikers zouden deze beveiligingslekken niet moeten vinden; ze zouden geen logs van conversaties moeten vinden die in platte tekst zijn opgeslagen. Zolang grote bedrijven niet zo roekeloos omgaan met onze data met deze opzichtige en fancy AI-tools, zal het probleem nooit echt worden opgelost.