AI-modellen zijn nu de belangrijkste doelwitten van aanvallers, meldt Google

Jarenlang hebben we kunstmatige intelligentie vooral gezien als een instrument voor productiviteit. Een nieuw rapport van Google’s experts op het gebied van dreigingsinformatie suggereert echter een andere realiteit: AI is in 2026 officieel zowel een hightech cyberbeveiligingswapen als een waardevol doelwit voor aanvallers geworden. Naarmate bedrijven deze modellen in hun kerninfrastructuur integreren, creëren ze onbedoeld een nieuw en riskant oppervlak.

Distillatieaanval: de AI-cyberveiligheidsdreiging voor 2026, volgens Google

Traditioneel waren cyberaanvallen gericht op het binnendringen van een netwerk om een ​​database te stelen of ransomware te installeren. Tegenwoordig zijn aanvallers steeds meer geïnteresseerd in de ‘logica’ achter de AI zelf. John Hultquist, hoofdanalist bij Google Threat Intelligence Group, benadrukt een groeiende trend die ‘distillatie’ of IA-modelextractieaanvallen wordt genoemd.

In deze scenario’s breken aanvallers niet noodzakelijkerwijs in via een achterdeur. In plaats daarvan gebruiken ze legitieme toegang om een ​​model als Gemini met honderdduizenden prompts te bekogelen. Het doel is om de redeneerpatronen van de AI te observeren en de mogelijkheden ervan te reverse-engineeren. In wezen proberen ze een bezit van meerdere miljarden dollars te klonen zonder ooit een traditioneel beveiligingsalarm te activeren.

Sneller, slimmer en overtuigender

Naast dat ze zich op de modellen zelf richten, integreren door de staat gesponsorde groepen uit landen als Rusland, China, Iran en Noord-Korea generatieve AI in hun dagelijkse workflows. Dit gaat niet alleen over het schrijven van betere phishing-e-mails, hoewel ze dat ook doen.

Dankzij AI kunnen aanvallers in slechts enkele minuten verkenningen uitvoeren die vroeger weken duurden. Ze kunnen specifieke brancheconferenties onderzoeken, de gelokaliseerde context vertalen en interne bedrijfscommunicatie met een verontrustende nauwkeurigheid nabootsen. Voor cybercriminelen is snelheid een enorme troef; het stelt hen in staat ransomware te lanceren en zich sneller door systemen te bewegen dan menselijke verdedigers kwetsbaarheden kunnen patchen.

Een machine-op-machine toekomst

We betreden snel een tijdperk van ‘agentische’ bedreigingen: AI-systemen die in staat zijn campagnes in meerdere stappen te plannen en uit te voeren met zeer weinig menselijke hulp. Terwijl verdedigers AI ook gebruiken om te scannen op bugs en in realtime op bedreigingen te reageren, hebben aanvallers momenteel een strategisch voordeel: ze worden niet afgeremd door bedrijfsbureaucratie of risicobeheerprotocollen. Als de experimentele AI van een aanvaller faalt, verliest hij niets; als de AI van een verdediger faalt, zijn de gevolgen catastrofaal.

Zoals Hultquist suggereert, leunen we meer dan ooit op machines. In deze race is de enige manier om een ​​geautomatiseerde tegenstander bij te houden het omarmen van een eveneens geautomatiseerde verdediging. Het menselijke element zal altijd het uiteindelijke oordeel vellen, maar het zware werk van de toekomst is aan de algoritmen.

Thijs Van der Does