Pentagon en antropische AI-deal ter waarde van $200 miljoen bedreigd, hier is waarom

De relatie tussen AI-bedrijven en het Amerikaanse leger gaat een gespannen nieuwe fase in. In het middelpunt van de storm staat Anthropic, de in San Francisco gevestigde startup die bekend staat om zijn focus op ‘AI-veiligheid’. Volgens een recent rapport van Axios dreigt het Pentagon momenteel zijn partnerschap van 200 miljoen dollar met Anthropic te verbreken vanwege een belangrijk meningsverschil: hoeveel controle een particulier bedrijf zou moeten hebben over de manier waarop het leger zijn software gebruikt, zoals Claude AI-modellen.

Het ultimatum van $200 miljoen: waarom het Pentagon dreigt de Anthropic AI-deal te dumpen

Maandenlang heeft het Ministerie van Defensie (DoD) vier grote AI-spelers – Anthropic, OpenAI, Google en xAI – ertoe aangezet om het leger toe te staan ​​hun modellen voor “alle wettige doeleinden” te gebruiken. Dit betekent in wezen het opheffen van de standaard vangrails die gewone gebruikers ervan weerhouden AI toe te passen op gevoelige gebieden zoals wapenontwikkeling, het verzamelen van inlichtingen of operaties op het slagveld.

Uit rapporten blijkt dat OpenAI, Google en xAI een zekere mate van flexibiliteit hebben getoond. Antropisch is daarentegen naar verluidt het meest resistent. Het bedrijf heeft een harde grens getrokken op het gebied van twee specifieke grenzen: het gebruik van zijn Claude-model voor massasurveillance op Amerikanen en de ontwikkeling van volledig autonome wapensystemen die kunnen vuren zonder dat er een mens tussen zit.

Spanningen na de inval van Maduro

De wrijving bereikte een kookpunt na de Amerikaanse militaire operatie om de voormalige Venezolaanse president Nicolás Maduro gevangen te nemen. De Wall Street Journal meldde dat het Pentagon Claude tijdens de missie gebruikte via een partnerschap met databedrijf Palantir. Dit incident riep interne vragen op bij Anthropic.

Defensiefunctionarissen uitten hun frustratie toen Anthropic naar verluidt informeerde of hun technologie betrokken was bij de inval, waarbij “kinetisch vuur” (gevecht) plaatsvond. Het Pentagon beschouwt dit soort toezicht als onwerkbaar. De entiteit stelt dat oorlogsstrijders tijdens actieve operaties niet kunnen pauzeren om met een softwareleverancier over individuele gebruiksscenario’s te onderhandelen.

Een cultuurclash

Het dispuut wijst op een aanzienlijke cultuurclash. Ambtenaren aangehaald door Axios hebben Anthropic omschreven als het meest “ideologische” van de AI-laboratoria. Het bedrijf wordt naar verluidt bestuurd door een strikt intern gebruiksbeleid dat zelfs ‘interne onrust’ veroorzaakt onder de eigen ingenieurs over militair werk. Het Pentagon staat echter voor een dilemma: ondanks de wrijving geven functionarissen toe dat Claude momenteel een voorsprong heeft op zijn concurrenten op het gebied van gespecialiseerde overheids- en geheime toepassingen.

Als de twee partijen er niet in slagen tot overeenstemming te komen, heeft het Pentagon gesuggereerd dat het Anthropic een ‘toeleveringsketenrisico’ zou kunnen noemen. Het zou ook op zoek kunnen gaan naar een ordelijke vervanging. Anthropic van zijn kant beweert dat het zich inzet voor de nationale veiligheid. Het AI-bedrijf wijst erop dat het het eerste bedrijf was dat modellen op geheime netwerken plaatste. Voorlopig zijn beide partijen nog in gesprek.

Thijs Van der Does