Waarom uw AI -chats waarschijnlijk nooit meer privé zijn

Voor miljoenen van ons is interactie met AI -chatbots een dagelijkse routine geworden. We stellen vragen, brainstormen, ideeën, e -mails en soms, misschien onbewust, delen gevoelige informatie. Er is een onuitgesproken begrip dat wanneer we een praatje verwijderen, het voorgoed weg is. Maar een recent startende gerechtelijk bevel waarbij Openai, het bedrijf achter Chatgpt, heeft betrokken, heeft per ongeluk het gordijn teruggetrokken bij deze veronderstelling. Deze ontwikkeling onthulde een realiteit die veel gebruikers misschien verontrustend vinden: de illusie van privacy in AI -interacties of chats.

Deze openbaring komt voort uit een juridische strijd met hoge inzet tussen Openai en de New York Times. In 2023 dienden de Times een rechtszaak aan inbreuk op het auteursrecht in. De uitgever beweerde dat Openai illegaal zijn enorme trove auteursrechtelijke artikelen gebruikte om zijn krachtige AI -modellen te trainen. Als onderdeel van het juridische proces heeft een federale rechtbank onlangs een ingrijpende richtlijn uitgegeven: Openai moet voor onbepaalde tijd logboeken van elk chatgpt -gesprek onderhouden, inclusief die gebruikers dachten dat ze hadden verwijderd.

De schokkende volgorde: verwijdering betekent niet weg

Kortom, op die knop “Verwijderen”, laat uw chats niet verdwijnen in de digitale ether. Nou, ze zullen niet meer voor je beschikbaar zijn, maar ze zullen in de database van Openai zijn. Dat is de kern van de “Nightmare” Openai’s COO, Brad Lightcap, beschreven. Het gerechtelijk bevel eist dat OpenAI alle gebruikerschatlogboeken en API -clientinhoud behoudt zonder een afsluitingsdatum. De rechter stelt dat de maatregel is gericht op het voorkomen van een mogelijke verwijdering van bewijsmateriaal dat relevant is voor het geschil van het auteursrecht. Op dit punt lijkt het belangrijk om te onthouden dat Openai toegaf dat het potentieel bewijs per ongeluk in dezelfde NYT -rechtszaak heeft verwijderd.

Jane Doe, privacyadviseur bij Cybersecure LLP, zei: “Deze richtlijn is ongekend en vormt een gevaarlijk precedent voor gebruikersautonomie. ” ‘Bedrijven hebben duidelijke regels nodig die de ontdekkingsbehoeften in evenwicht hebben met fundamentele privacyrechten‘Voegden ze eraan toe.

Het op IA gerichte bedrijf is actief een beroep op deze beslissing. Het bedrijf stelt fel dat een dergelijke bestelling een grote inbreuk op de privacy van gebruikers betekent. Het is ook direct in strijd met hun verklaarde privacyverplichtingen. Ze wijzen ook op de immense technische en logistieke last van het voor onbepaalde tijd opslaan van dergelijke kolossale datasets. Het is een juridische schermutseling die onverwacht een ‘rokende pistool’ is geworden, waardoor de bredere AI -industrie de gegevensverzamelingspraktijken van de AI -industrie worden blootgelegd en het idee van wat ‘privé’ echt betekent, echt betekent in het tijdperk van generatieve AI.

Inbal Shani, Chief Product Officer bij GitHub, is het ook niet eens met de aanpak om gebruikersinteractiegegevens voor onbepaalde tijd met AI -platforms te bewaren. ‘Gegevens die worden gebruikt om AI te trainen, mogen de wettelijke of ethische houdbaarheid ervan niet overleven, ” zei ze. “Organisaties hebben geautomatiseerde systemen nodig om gegevens te verwijderen of te anonimiseren, vooral wanneer deze wordt hergebruikt of hergebruikt‘Voegde Shani eraan toe.

De realiteit van de gegevensverzameling: een nadere beschouwing van wat chatbots verzamelen

Als Openai nu gedwongen is om zelfs “verwijderde” chats te behouden, roept dit de vraag op: hoeveel van onze gegevens verzamelen deze AI -chatbots om te beginnen? Hoewel het gerechtelijk bevel specifiek is voor Openai in deze context, leidt het tot een breder onderzoek van de industrie.

Volgens onderzoek van Surfshark, een cybersecuritybedrijf, varieert het landschap van AI Chatbot Data Collection aanzienlijk. Het algemene beeld suggereert echter een enorme eetlust voor gebruikersinformatie:

  • META AI: Vernieuwt naar verluidt de meeste gebruikersgegevens tussen populaire chatbots en verzamelt een verbluffende 32 van de 35 mogelijke gegevenstypen. Dit omvat categorieën zoals precieze locatie, financiële informatie, gezondheids- en fitnessgegevens en andere gevoelige persoonlijke gegevens.
  • Google Gemini: verzamelt 22 unieke gegevenstypen, die ook precieze locatiegegevens, contactgegevens, gebruikersinhoud en zoek- en browsegeschiedenis bevatten.
  • Chatgpt (OpenAI): verzamelt minder typen in vergelijking met de andere, bij 10 verschillende gegevenstypen. Deze omvatten meestal contactgegevens, gebruikersinhoud, identificatiegegevens, gebruiksgegevens en diagnostiek. Opmerkelijk is dat de analyse van SurfShark suggereert dat chatgpt het bijhouden van gegevens of het gebruik van advertenties van derden in de app vermijdt.
Meta AI Chatgpt Gemini -gebruiker Chats Gegevensverzameling Privacygrafiek

Deze vergelijking benadrukt een kritisch spectrum van gegevensverzameling. Hoewel sommige bedrijven mogelijk minder verzamelen, is het enorme volume en het type gegevens, met name gevoelige informatie, die kunnen worden geassocieerd met uw AI -interacties aanzienlijk. Regelgevers nemen al op de hoogte van deze realiteit. Bijvoorbeeld, de Italiaanse privacywaakhond sloeg onlangs Replika AI met een boete van € 5 miljoen voor ernstige BDPR -overtredingen met betrekking tot gebruikersgegevens. Deze instanties benadrukken een wereldwijde drang naar meer verantwoording en transparantie bij AI -gegevensverwerking.

Een gevaarlijk precedent: vertrouwen uithollen en privacy opnieuw definiëren

Het Openai -gerechtelijk bevel vormt een gevaarlijk precedent, niet alleen voor Openai maar voor de hele AI -industrie. Het verbrijzelt de handige illusie dat gebruikersgesprekken vluchtig zijn of echt ‘verwijderd’ zijn. Voor gebruikers betekent dit dat alle gevoelige informatie, persoonlijke gedachten of privé -vragen die worden gedeeld met een AI -chatbot voor onbepaalde tijd op een server kunnen bestaan. Ze kunnen dus potentieel toegankelijk zijn onder juridische dwang. Dit kan leiden tot een huiveringwekkend effect, waarbij gebruikers zelfcensureren of terughoudend worden om met AI in contact te komen voor gevoelige onderwerpen, het ondermijnen van het nut en vertrouwen dat deze tools zijn bedoeld om te bouwen.

Sam Altman’s “AI Privilege”: een oproep tot vertrouwelijkheid

De “angst” om gegevens te delen met AI -chatbots, zoals Chatgpt, kan ook de visie van Openai voor dit soort platforms ondermijnen. In het licht van dit privacylandschap heeft Sam Altman, de CEO van Openai, een dwingend argument uitgesproken voor wat hij ‘AI Privilege’ noemt. Altman is van mening dat interacties met AI uiteindelijk met hetzelfde niveau van vertrouwelijkheid en bescherming moeten worden behandeld als gesprekken tussen een arts en patiënt of een advocaat en een cliënt. Hij suggereerde zelfs “echtgenoten” als een meer passende analogie voor de intimiteit van sommige AI -interacties.

Dit concept is niet alleen theoretisch; Het is een direct antwoord op de nieuwe realiteiten die door de rechtszaak worden blootgesteld. Altman’s roep om “AI Privilege” weerspiegelt een groeiend bewustzijn binnen de industrie dat de huidige juridische en ethische kaders slecht uitgerust zijn om de unieke uitdagingen op het gebied van conversatie AI aan te kunnen. Hij hoopt dat de samenleving deze kwestie onmiddellijk aanpakt en de diepgaande implicaties voor gebruikersvertrouwen en het nut van AI erkent.

Praktische stappen die lezers nu kunnen nemen

Wat kunt u, gezien deze onthullingen, doen om uw privacy te beschermen bij het omgaan met AI -chatbots?

  • Houd rekening met gevoelige gegevens: vermijd het delen van zeer gevoelige persoonlijke, financiële, gezondheids- of vertrouwelijke informatie met elke AI -chatbot. Neem aan dat alles wat u typt kan worden behouden.
  • Controleer het privacybeleid (maar blijf sceptisch): bedrijven hebben een privacybeleid met gegevensverwerking. Vergeet echter niet dat gerechtelijke bevelen het behoud van gegevens kunnen afdwingen, mogelijk een dwingende standaarddeletbeleid kunnen dwingen.
  • Gebruik “Gast” of “Incognito” -modi: als een AI -service tijdelijke of incognito -modi biedt (zoals de “Chat History & Training” van Chatgpt), gebruik ze dan. Begrijp echter dat ’tijdelijk’ vaak ‘verwijderd is van uw zichtbare geschiedenis’, niet noodzakelijkerwijs permanent uit alle backend -systemen gewist.
  • Bekijk regelmatig accountinstellingen: controleer regelmatig de accountinstellingen van uw AI Chatbot op gegevensbehoud of verwijderingsopties en oefen ze uit indien beschikbaar.
  • Blijf op de hoogte: houd nieuws en privacydiscussies rond AI in de gaten. Het regelgevende landschap evolueert snel.

Industrie-, juridische en wetgevende reacties

Het Openai -gerechtelijk bevel heeft ongetwijfeld rimpelingen door de hele AI -industrie gestuurd. Hoewel geen andere grote AI -bedrijven publiekelijk onmiddellijk, direct beleidswijzigingen hebben aangekondigd, specifiek in reactie op dit bevel (buiten bestaande privacyverplichtingen), zal de dreiging van soortgelijke juridische mandaten vrijwel zeker leiden tot interne beoordelingen van het beleid voor gegevensbehoud en lobbyinspanningen voor duidelijkere voorschriften.

Privacywetsexperts voorspellen een verhoogde toezicht op de regelgeving. De Europese Unie, met zijn stringente AVG (algemene verordening gegevensbescherming) en de baanbrekende AI-wet (die een risicogebaseerd raamwerk oplegt aan AI-ontwikkelaars), leidt de leiding. Verwacht wordt dat andere landen en regio’s naar verwachting zullen volgen. Dit kan mogelijk leiden tot uitgebreidere federale gegevensprivacywetten in de VS die specifiek AI aanpakken. De juridische strijd zelf, met een federale rechter die al toestaat dat de kernclaims inbreuk op het auteursrecht doorgaan, is ingesteld om de toekomst van AI’s relatie met intellectuele eigendom en gebruikersgegevens vorm te geven.

Het incident dient als een wake-up call: hoewel AI ongelooflijk gemak biedt, kunnen de echte kosten van “gratis” AI Antwoorden een fundamentele heroverweging van onze digitale privacy en de ongeziene repositories van onze gesprekken inhouden. Naarmate AI dieper wordt geïntegreerd in ons leven, zal de vraag naar transparantie, robuuste privacybeschermers en een duidelijk begrip van gegevensbehoud alleen maar luider worden.

Thijs Van der Does