Anthropic beschuldigt DeepSeek van diefstal van Claude AI-modellen

Een nieuwe golf van bedrijfsspionage heeft de sector van de kunstmatige intelligentie getroffen. Anthropic beschuldigde onlangs drie prominente Chinese AI-laboratoria ervan een grootschalige campagne te organiseren om intellectueel eigendom over te hevelen. Volgens Anthropic gebruikten de bedrijven DeepSeek, Moonshot AI en MiniMax een ingewikkeld diefstalnetwerk van tienduizenden frauduleuze accounts om Claude’s geavanceerde redeneer- en codeervaardigheden via distillatie te kopiëren.

Anthropic beweert Claude AI-diefstal op industriële schaal uit China via distillatie

Het in San Francisco gevestigde bedrijf beweert dat de operatie berustte op een techniek die bekend staat als destillatie. Bij dit laatste gaat het doorgaans om het trainen van een kleiner AI-model met behulp van de resultaten van een meer geavanceerd model. Hoewel ontwikkelaars deze methode vaak gebruiken om efficiënte, goedkope versies van hun eigen producten te maken, beweert Anthropic dat deze concurrenten het proces hebben bewapend. Door meer dan 16 miljoen uitwisselingen met Claude te genereren, hebben de laboratoria in wezen de hoogwaardige logica en mogelijkheden voor gereedschapsgebruik ‘gekloneerd’ die Anthropic jarenlang heeft ontwikkeld.

Volgens Anthropic hebben de beschuldigde bedrijven meer dan 24.000 nepaccounts opgezet om hun doel te bereiken. Uit het interne onderzoek van het bedrijf bleek dat deze actoren proxydiensten gebruikten om regionale beperkingen te omzeilen en hun werkelijke locatie te verbergen. MiniMax alleen al heeft naar verluidt bijna de helft van zijn verkeer omgeleid om gegevens van Claude’s nieuwste model vast te leggen, onmiddellijk na de publieke release.

Toenemende spanningen

Deze bevinding heeft bijgedragen aan het voortdurende debat over de Amerikaanse chipexport. Anthropic zegt dat deze labs veel rekenkracht nodig hebben. Dit versterkt de behoefte aan strikte controles op geavanceerde AI-chips zoals die geproduceerd door Nvidia. Het bedrijf beweert dat beperkte toegang tot hoogwaardige hardware een van de weinige manieren is om zowel directe modeltraining als grootschalige distillatie te beperken.

Naast de economische gevolgen roept de situatie ook ernstige zorgen op voor de nationale veiligheid. Anthropic zei dat modellen die via illegale distillatie zijn gemaakt, vaak de strenge veiligheidskenmerken missen die aanwezig waren in de originele systemen. Als deze beveiligingen niet aanwezig zijn, is de kans groter dat dit soort AI voor kwaadaardige activiteiten kan worden gebruikt. Dit omvat cyberaanvallen of de ontwikkeling van biowapens, vooral als de resulterende modellen uiteindelijk open source zijn.

Het is opmerkelijk dat het bedrijf ook met terugslag te maken kreeg. Sommige critici en marktleiders hebben de ironie benadrukt van een groot AI-bedrijf dat klaagt over ongeoorloofd datagebruik, terwijl het zijn eigen juridische strijd voert over het gebruik van auteursrechtelijk beschermd materiaal voor modeltraining.

Thijs Van der Does