De nieuwe AI van Google vindt niet alleen kwetsbaarheden – het herschrijft code om ze te patchen

Google’s DeepMind Division heeft maandag een kunstmatige intelligentie (AI) aangekondigd, aangedreven agent genaamd Codemender Dat detecteert, patcheert en herschrijft automatisch kwetsbare code om toekomstige exploits te voorkomen.

De inspanningen dragen bij aan de voortdurende inspanningen van het bedrijf om de ontdekking van AI-aangedreven kwetsbaarheid te verbeteren, zoals grote slaap en OSS-fuzz.

DeepMind zei dat de AI -agent is ontworpen om zowel reactief als proactief te zijn, door nieuwe kwetsbaarheden te repareren zodra ze worden gezien en het herschrijven en beveiligen van bestaande codebases met als doel om hele klassen van kwetsbaarheden in het proces te elimineren.

“Door automatisch te maken en hoogwaardige beveiligingspatches toe te passen, helpt de AI-aangedreven agent van Codemender ontwikkelaars en beheerders te concentreren op wat ze het beste doen-het bouwen van goede software,” zei Deepmind-onderzoekers Raluca Ada Popa en Four Flynn.

“In de afgelopen zes maanden hebben we codemender gebouwd, hebben we al 72 beveiligingsfixes gestreept om source -projecten te openen, waaronder sommige zo groot als 4,5 miljoen regels code.”

Codemender, onder de motorkap, maakt gebruik van Google’s Gemini Deep Think -modellen om de beveiligingskwetsbaarheden te debuggen, te markeren en te repareren door de hoofdoorzaak van het probleem aan te pakken en te valideren om ervoor te zorgen dat ze geen regressies veroorzaken.

De AI-agent, Google Toegevoegde, maakt ook gebruik van een groot talenmodel (LLM) op basis van kritiek dat de verschillen tussen de originele en gewijzigde code benadrukt om te controleren of de voorgestelde wijzigingen geen regressies introduceren en zelfcorrigeert.

Google zei dat het ook van plan is om langzaam contact op te nemen met geïnteresseerde beheerders van kritieke open-source-projecten met door codeemener gegenereerde patches en hun feedback te vragen, zodat de tool kan worden gebruikt om codebases veilig te houden.

De ontwikkeling komt omdat het bedrijf zei dat het een AI-beloningsprogramma (AI VRP) instelt om AI-gerelateerde kwesties in zijn producten te melden, zoals snelle injecties, jailbreaks en verkeerde uitlijning, en beloningen verdienen die zo hoog zijn als $ 30.000.

In juni 2025 onthulde Anthropic dat modellen van verschillende ontwikkelaars hun toevlucht namen tot kwaadaardig insider -gedrag toen dat de enige manier was om vervanging te voorkomen of hun doelen te bereiken, en dat LLM -modellen “minder misdragen toen het verklaarde dat het was in het testen en misdragen meer toen het verklaarde dat de situatie echt was.”

Dat gezegd hebbende, beleidsviolerende inhoudsopwekking, vangrail omzeilen, hallucinaties, feitelijke onnauwkeurigheden, systeempromptextractie en problemen met intellectuele eigendom vallen niet onder de ambit van de AI VRP.

Google, dat eerder een toegewijd AI Red -team heeft opgezet om bedreigingen voor AI -systemen aan te pakken als onderdeel van het Secure AI -framework (SAIF), heeft ook een tweede iteratie van het kader geïntroduceerd om zich te concentreren op agentische beveiligingsrisico’s zoals gegevensopening en onbedoelde acties en de benodigde controles om ze te verzachten.

Het bedrijf merkte verder op dat het toegewijd is om AI te gebruiken om de beveiliging en veiligheid te verbeteren, en de technologie te gebruiken om verdedigers een voordeel te geven en de groeiende dreiging van cybercriminelen, oplichters en door de staat gesteunde aanvallers tegen te gaan.

Thijs Van der Does