OpenAI zegt dat het er hard aan werkt om zijn Atlas AI-browser veiliger te maken, aangezien experts waarschuwen voor de snelle injectie-aanvallen. Het ergste is dat het heel moeilijk is om dergelijke aanvallen te stoppen. Ze verbergen schadelijke instructies in e-mails of webpagina’s en misleiden AI-agenten om het verkeerde te doen. De techgigant zegt dat het probleem niet helemaal zal verdwijnen.
AI-browsers lopen het risico van snelle injectie-aanvallen
OpenAI had in oktober van dit jaar zijn nieuwe AI-browser, de ChatGPT Atlas, gelanceerd. Kort na de lancering lieten beveiligingsonderzoekers echter zien hoe een paar verborgen woorden in een document of e-mail het gedrag van de browser konden veranderen. OpenAI gaf ook toe dat de agentmodus van de browser de veiligheidsrisico’s zou kunnen vergroten. Dit komt vooral doordat AI namens de gebruiker het systeem kan besturen.
Andere bedrijven over de hele wereld waren het erover eens dat dit niet alleen het probleem van OpenAI is. Brave, een van de populairste browsers, waarschuwde ook dat snelle injectie van invloed zou kunnen zijn op veel AI-browsers. Andere technologiegiganten, zoals Anthropic en Google, zeggen dat deze aanvallen langetermijnproblemen zijn. Om het nog erger te maken, zegt het National Cyber Security Centre van Groot-Brittannië dat snelle injectie-aanvallen wellicht nooit volledig kunnen worden voorkomen.
Schadebeperking is de enige oplossing voor de aanval
Het Britse onderzoekscentrum adviseert bedrijven verder om zich te concentreren op het beperken van de schade in plaats van te proberen de snelle injectie volledig te stoppen. OpenAI zegt dat zijn schild tegen dergelijke aanvallen bestaat uit sneller testen en snellere updates.
Om het probleem verder op te lossen heeft het bedrijf een AI-model ontwikkeld dat is getraind met behulp van versterkend leren om zich als een hacker te gedragen. Het zoekt voortdurend naar manieren om AI-agenten te misleiden en test aanvallen in simulaties. Hierdoor kan het bedrijf de aanval repareren of voorkomen voordat een echte aanvaller deze kan gebruiken. OpenAI zegt verder dat het systeem al nieuwe aanvalsmethoden heeft gemarkeerd die menselijke testers hebben gemist.
Bovendien gaat het niet alleen om de browsers en de technologiebedrijven. Het gebruikersgedrag is ook van groot belang. Wiz-onderzoeker Rami McCarthy legt uit dat het risico op dergelijke aanvallen verder zal toenemen als de AI meer vrijheid en toegang krijgt tot gevoelige gegevens van gebruikers.