AI is overal, maar CISO’s beveiligen het nog steeds met de vaardigheden en hulpmiddelen van gisteren, zo blijkt uit onderzoek

Een meerderheid van de veiligheidsleiders heeft moeite om AI-systemen te verdedigen met tools en vaardigheden die niet geschikt zijn voor de uitdaging, aldus het rapport Benchmarkrapport over AI en vijandig testen 2026 van Pentera.

Het rapport, gebaseerd op een onderzoek onder 300 Amerikaanse CISO’s en senior veiligheidsleiders, onderzoekt hoe organisaties de AI-infrastructuur beveiligen en benadrukt de kritieke hiaten die verband houden met tekorten aan vaardigheden en de afhankelijkheid van beveiligingscontroles die niet zijn ontworpen voor het AI-tijdperk.

De acceptatie van AI overtreft de zichtbaarheid van beveiliging

AI-systemen worden zelden geïsoleerd ingezet. Ze zijn gelaagd en geïntegreerd in bestaande bedrijfstechnologie, van cloudplatforms en identiteitssystemen tot applicaties en datapijplijnen. Nu het eigendom over verschillende teams is verspreid, is effectief gecentraliseerd toezicht ineengestort.

Als gevolg hiervan rapporteerde 67 procent van de CISO’s beperkt inzicht in de manier waarop AI in hun organisatie wordt gebruikt. Geen van de respondenten gaf aan volledige zichtbaarheid te hebben; ze erkennen eerder dat ze zich bewust zijn van of een vorm van onbeheerd of niet-goedgekeurd AI-gebruik accepteren.

Zonder een duidelijk beeld van waar AI-systemen opereren of tot welke bronnen ze toegang hebben, hebben beveiligingsteams moeite om risico’s effectief in te schatten. Fundamentele vragen, zoals op welke identiteiten AI-systemen vertrouwen, welke gegevens ze kunnen bereiken of hoe ze zich gedragen als controles mislukken, blijven vaak onbeantwoord.

Vaardigheden, en niet het budget, vormen de voornaamste barrière

Hoewel AI-beveiliging inmiddels een vast onderwerp is in bestuurskamers en directiegesprekken, laat het onderzoek zien dat de grootste uitdagingen niet van financiële aard zijn.

CISO’s identificeerden het volgende als hun belangrijkste obstakels voor het beveiligen van de AI-infrastructuur:

  • Gebrek aan interne expertise (50 procent)
  • Beperkt inzicht in AI-gebruik (48 procent)
  • Onvoldoende beveiligingstools die specifiek zijn ontworpen voor AI-systemen (36 procent)

Slechts 17 procent noemde budgetbeperkingen als voornaamste zorg. Dit suggereert dat veel organisaties bereid zijn te investeren in AI-beveiliging, maar nog niet over de gespecialiseerde vaardigheden beschikken die nodig zijn om AI-gerelateerde risico’s in reële omgevingen te evalueren.

AI-systemen introduceren gedrag dat beveiligingsteams nog steeds leren beoordelen, waaronder autonome besluitvorming, indirecte toegangspaden en geprivilegieerde interactie tussen systemen. Zonder de juiste expertise en actief testen wordt het moeilijk om te beoordelen of bestaande controles effectief zijn zoals bedoeld.

Oudere besturingselementen dragen het grootste deel van de last

Bij gebrek aan AI-specifieke best practices, vaardigheden en tools breiden de meeste bedrijven de bestaande beveiligingscontroles uit naar de AI-infrastructuur.

Uit het onderzoek blijkt dat 75 procent van de CISO’s vertrouwt op oudere beveiligingsmaatregelen, zoals endpoint-, applicatie-, cloud- of API-beveiligingstools, om AI-systemen te beschermen. Slechts 11 procent meldde dat ze beveiligingstools hebben die specifiek zijn ontworpen om de AI-infrastructuur te beveiligen.

Deze aanpak weerspiegelt een bekend patroon dat we zagen tijdens eerdere technologische verschuivingen, waarbij organisaties eerst de bestaande verdedigingsmechanismen aanpassen voordat er meer op maat gemaakte beveiligingspraktijken ontstaan. Hoewel dit basisdekking kan bieden, houden controles die voor traditionele systemen zijn gebouwd mogelijk geen rekening met de manier waarop AI toegangspatronen verandert en potentiële aanvalspaden uitbreidt.

Een bekende uitdaging, nu toegepast op AI

Alles bij elkaar laten de bevindingen zien dat uitdagingen op het gebied van AI-beveiliging eerder voortkomen uit fundamentele lacunes dan uit een gebrek aan bewustzijn of intentie.

Nu AI een kernonderdeel van de bedrijfsinfrastructuur wordt, suggereert het rapport dat organisaties zich zullen moeten concentreren op het opbouwen van expertise en het verbeteren van de manier waarop zij beveiligingscontroles valideren in omgevingen waar AI al actief is.

Download het bestand om de volledige bevindingen te bekijken Benchmarkrapport over AI en vijandig testen 2026 voor een diepere discussie over de gegevens en de belangrijkste conclusies.

Opmerking: Dit artikel is geschreven door Ryan Dory, directeur technische adviseurs bij Pentera.

Thijs Van der Does