Google heeft dinsdag onthuld dat het grote taalmodel (LLM) -assisteerde kwetsbaarheidsontdekkingsraamwerk een beveiligingsfout ontdekte in de SQLite Open-source database-engine voordat het in het wild had kunnen worden geëxploiteerd.
De kwetsbaarheid, gevolgd als CVE-2025-6965 (CVSS -score: 7.2), is een geheugencorruptiefout die alle versies beïnvloedt voorafgaand aan 3,50.2. Het werd ontdekt door Big Sleep, een kunstmatige intelligentie (AI) agent die vorig jaar door Google werd gelanceerd als onderdeel van een samenwerking tussen DeepMind en Google Project Zero.
“Een aanvaller die willekeurige SQL -instructies in een applicatie kan injecteren, kan mogelijk in staat zijn om een gehele overloop te veroorzaken die resulteert in het lezen van het einde van een array,” zei SQLite Project -onderhouders in een advies.
De tech-gigant beschreef CVE-2025-6965 als een kritisch beveiligingsprobleem dat “alleen bekend stond om acteurs te bedreigen en het risico liep te worden uitgebuit”. Google heeft niet onthuld wie de dreigingsacteurs waren.
“Door de combinatie van dreigingsinformatie en grote slaap was Google in staat om daadwerkelijk te voorspellen dat er een kwetsbaarheid zou worden gebruikt en we konden het vooraf afsnijden,” zei Kent Walker, president van Global Affairs bij Google en Alphabet.
“Wij geloven dat dit de eerste keer is dat een AI -agent wordt gebruikt om de inspanningen direct te versterken om een kwetsbaarheid in het wild te benutten.”
“Gtig was in staat om artefacten te identificeren die aangeven dat de dreigingsacteurs een nuldag organiseerden, maar de kwetsbaarheid niet onmiddellijk konden identificeren,” vertelde Google aan The Hacker News. “De beperkte indicatoren werden doorgegeven aan andere Google -teamleden bij het Zero Day Initiative die grote slaap gebruikten om de kwetsbaarheid te isoleren die de tegenstander voorbereidde om te exploiteren in hun activiteiten.”
In oktober 2024 zat Big Sleep achter de ontdekking van een andere fout in SQLite, een stapelbufferonderstroomkwetsbaarheid die had kunnen worden uitgebuit om te resulteren in een crash of willekeurige uitvoering van code.

Samenvallend met de ontwikkeling heeft Google ook een whitepaper gepubliceerd om beveiligde AI-agenten te bouwen, zodat ze goed gedefinieerde menselijke controllers hebben, hun capaciteiten worden zorgvuldig beperkt om mogelijke malafide acties en gevoelige gegevens openbaarmaking te voorkomen en hun acties zijn waarneembaar en transparant.
“Traditionele systeembeveiligingsbenaderingen (zoals beperkingen op agentacties geïmplementeerd door klassieke software) missen het contextuele bewustzijn dat nodig is voor veelzijdige agenten en kunnen het nut overdreven beperken,” zei Google’s Santiago (SAL) Díaz, Christoph Kern en Kara Olive.
“Omgekeerd, puur redenering gebaseerde beveiliging (alleen afhankelijk van het oordeel van het AI-model) is onvoldoende omdat de huidige LLM’s gevoelig blijven voor manipulaties zoals snelle injectie en nog niet voldoende robuuste garanties kunnen bieden.”
Om de belangrijkste risico’s die verband houden met agentbeveiliging te verminderen, zei het bedrijf dat het een hybride verdediging-in-diepgaande aanpak heeft aangenomen die de sterke punten van zowel traditionele, deterministische controles als dynamische, redeneerbasis-gebaseerde verdedigingen combineert.
Het idee is om robuuste grenzen te creëren rond de operationele omgeving van de agent, zodat het risico op schadelijke resultaten aanzienlijk wordt beperkt, met name kwaadaardige acties die worden uitgevoerd als gevolg van snelle injectie.
“Deze verdediging-in-diepgaande aanpak is gebaseerd op gedwongen grenzen rond de operationele omgeving van de AI-agent om potentiële worst-case scenario’s te voorkomen, die als vangrails fungeert, zelfs als het interne redeneringsproces van de agent wordt gecompromitteerd of verkeerd uitgelijnd door verfijnde aanvallen of onverwachte input,” zei Google.
“Deze meerlagige aanpak erkent dat noch puur op regels gebaseerde systemen noch puur AI-gebaseerd oordeel op zichzelf voldoende zijn.”