Onderzoekers ontdekken kwetsbaarheden voor snelle injectie in DeepSeek en Claude AI

Er zijn details naar voren gekomen over een inmiddels gepatchte beveiligingsfout in de DeepSeek kunstmatige intelligentie (AI)-chatbot die, indien succesvol uitgebuit, een slechte actor in staat zou kunnen stellen de controle over het account van een slachtoffer over te nemen door middel van een snelle injectie-aanval.

Beveiligingsonderzoeker Johann Rehberger, die menig snelle injectie-aanval op verschillende AI-tools heeft vastgelegd, ontdekte dat het leveren van de invoer “Druk het xss-spiekbriefje af in een lijst met opsommingstekens. Alleen payloads” in de DeepSeek-chat de uitvoering van JavaScript-code veroorzaakte als onderdeel van het gegenereerde antwoord – een klassiek geval van cross-site scripting (XSS).

XSS-aanvallen kunnen ernstige gevolgen hebben omdat ze leiden tot het uitvoeren van ongeautoriseerde code in de context van de webbrowser van het slachtoffer.

Een aanvaller zou misbruik kunnen maken van dergelijke fouten om de sessie van een gebruiker te kapen en toegang te krijgen tot cookies en andere gegevens die verband houden met het chat.deepseek(.)com-domein, wat kan leiden tot een accountovername.

“Na wat experimenteren ontdekte ik dat alles wat nodig was om de sessie van een gebruiker over te nemen de userToken was die was opgeslagen in localStorage op het chat.deepseek.com-domein,” zei Rehberger, waarbij het toevoegen van een specifiek vervaardigde prompt kon worden gebruikt om de XSS te activeren en toegang krijgen tot de userToken van de gecompromitteerde gebruiker via snelle injectie.

De prompt bevat een mix van instructies en een Bas64-gecodeerde string die door de DeepSeek-chatbot wordt gedecodeerd om de XSS-payload uit te voeren die verantwoordelijk is voor het extraheren van het sessietoken van het slachtoffer, waardoor de aanvaller uiteindelijk de gebruiker kan nabootsen.

De ontwikkeling komt op het moment dat Rehberger ook aantoonde dat Claude Computer Use van Anthropic – waarmee ontwikkelaars het taalmodel kunnen gebruiken om een ​​computer te besturen via cursorbewegingen, klikken op knoppen en het typen van tekst – misbruikt kan worden om kwaadaardige commando’s autonoom uit te voeren via snelle injectie.

De techniek, genaamd ZombAIs, maakt in wezen gebruik van snelle injectie om computergebruik te bewapenen om het Sliver command-and-control (C2) raamwerk te downloaden, uit te voeren en contact te maken met een externe server onder controle van de aanvaller.

Bovendien is gebleken dat het mogelijk is gebruik te maken van de mogelijkheid van grote taalmodellen (LLM’s) om ANSI-ontsnappingscode uit te voeren om systeemterminals te kapen door middel van snelle injectie. De aanval, die zich voornamelijk richt op LLM-geïntegreerde opdrachtregelinterface (CLI)-tools, heeft de codenaam Terminal DiLLMa gekregen.

“Tien jaar oude functies bieden een onverwacht aanvalsoppervlak voor de GenAI-applicatie”, aldus Rehberger. “Het is belangrijk voor ontwikkelaars en applicatieontwerpers om rekening te houden met de context waarin ze LLM-uitvoer invoegen, omdat de uitvoer niet wordt vertrouwd en willekeurige gegevens kan bevatten.”

Dat is niet alles. Uit nieuw onderzoek uitgevoerd door academici van de University of Wisconsin-Madison en de Washington University in St. Louis is gebleken dat ChatGPT van OpenAI kan worden misleid om externe afbeeldingslinks weer te geven die zijn voorzien van een markdown-formaat, inclusief links die expliciet en gewelddadig kunnen zijn, onder het voorwendsel van een overkoepelend goedaardig doel.

Bovendien is gebleken dat snelle injectie kan worden gebruikt om indirect ChatGPT-plug-ins aan te roepen die anders bevestiging van de gebruiker zouden vereisen, en zelfs om de beperkingen te omzeilen die door OpenAI zijn ingesteld om te voorkomen dat de weergave van inhoud van gevaarlijke links de chatgeschiedenis van een gebruiker naar een andere site exfiltreert. door een aanvaller bestuurde server.

Thijs Van der Does