De wereld van kunstmatige intelligentie is zelden saai. Een recente ontwikkeling met Openai en de New York Times bewijst precies dat. OpenAI, de maker van Chatgpt, is momenteel opgesloten in een juridische strijd die aanzienlijke implicaties kan hebben voor de privacy van gebruikers en hoe AI -bedrijven onze gegevens verwerken. De kern van dit alles is een gerechtelijk bevel dat het bedrijf voor onbepaalde tijd eist logboeken van elk Chatgpt -gesprek.
OpenAI Beroep Bevel die het bedrijf dwingt om chatgpt -chatlogboeken op te slaan
Het achtergrondverhaal begint in december 2023. Dat jaar heeft de New York Times een rechtszaak aan het auteursrecht aangespannen tegen Openai en Microsoft. De krant beweert dat Openai illegaal miljoenen van zijn auteursrechtelijk beschermde artikelen heeft gebruikt om zijn AI -modellen te trainen. Cruciaal is dat de Times beweert dat de AI -chatbot soms letterlijke brokken van hun inhoud op de hoogte is of zelfs de aan hen toegeschreven artikelen “hallucineert”. Deze praktijk zou de activiteiten van de outlet hebben ondermijnd, volgens de rechtszaak.
Om deze vermeende overtredingen bij te houden, heeft de rechtbank een ingrijpende bevel uitgegeven: OpenAI moet alle chat -chatlogboeken van Chatgpt en API -client voor onbepaalde tijd opslaan. De redenering van de rechter? Om een mogelijke verwijdering van bewijsmateriaal te voorkomen.
Redenen gegeven door Openai
Deze uitspraak is niet goed gegaan met Openai, wat nu in beroep gaat tegen de beslissing. Hun argumenten tegen de onbepaalde gegevensbehoud zijn sterk en veelzijdig.
Ten eerste beweert Openai dat deze bestelling een grote inbreuk op de privacy van gebruikers is. Ze beweren dat ze dwingen om voor onbepaalde tijd enorme hoeveelheden persoonlijke en potentieel gevoelige chatgegevens op te slaan die rechtstreeks in strijd zijn met hun privacyverplichtingen aan gebruikers. Openai CEO heeft publiekelijk verklaard dat deze beslissing “compromitteert de privacy van de gebruikers en schept een slecht precedent“Voor de industrie. Sam Altman benadrukt dat de bestelling is”overdreven breed‘En mist voldoende waarborgen om gebruikersinformatie te beschermen tegen potentieel misbruik.
Ten tweede benadrukt het bedrijf de onevenredige technische en logistieke last die dit bevel zou opleggen. Stel je de enorme hoeveelheid gegevens voor die wereldwijd bij elk Chatgpt -gesprek betrokken zijn, voor altijd opgeslagen. Openai beweert dat het beheren en opslaan van dergelijke enorme datasets een belangrijke uitdaging zou zijn. De Titanic -taak zou cruciale bronnen kunnen wegnemen van hun kernonderzoeks- en ontwikkelingsinspanningen. Ze stelden zelfs een willekeurige benadering voor voor het behoud van gegevens, maar de New York Times beschouwden het als onpraktisch.
Een “ongegronde” rechtszaak, beweert het bedrijf
Bovendien beschouwt Openai de rechtszaak zelf als ‘ongegrond’. Het bedrijf beschouwt de vraag van de gegevensbehoud als ‘ingrijpend en onnodig’, alleen op basis van speculatie. Ze beweren dat onbepaalde gegevensbehoud ingaat tegen standaardindustriële normen. De potentiële maatregel druist ook in tegen het eigen beleid van Openai, dat doorgaans binnen een bepaalde periode automatische verwijdering van chatgegevens inhoudt (bijvoorbeeld 30 dagen voor verwijderde chats). Het is vermeldenswaard dat deze bestelling van toepassing is op consumentenchatgpt (gratis, plus, pro, team) en API -gebruikers (zonder specifieke “nul data retentie” overeenkomsten). De uitspraak sluit Chatgpt Enterprise en EDU -klanten uit.
Deze case schijnt in het digitale tijdperk in de schijnwerpers van de evoluerende complexiteit van AI, auteursrechten en gebruikersprivacy. Het beroep van Openai onderstreept hun toewijding om uit te dagen wat ze zien als een overbereik die de fundamentele privacyverwachtingen van AI -gebruikers overal kan beïnvloeden. We zullen onze ogen open houden voor nieuwe relevante ontwikkelingen die zich in deze kwestie voordoen.