AI beveiligen om van AI te profiteren

Kunstmatige intelligentie (AI) houdt een enorme belofte in voor het verbeteren van cyberdefensie en het gemakkelijker maken van het leven van beveiligingsprofessionals. Het kan teams helpen alertheidsmoeheid te doorbreken, patronen sneller te ontdekken en een schaalniveau te bereiken dat menselijke analisten alleen niet kunnen evenaren. Maar het realiseren van dat potentieel hangt af van het beveiligen van de systemen die dit mogelijk maken.

Elke organisatie die experimenteert met AI bij beveiligingsoperaties breidt, bewust of niet, haar aanvalsoppervlak uit. Zonder duidelijk bestuur, sterke identiteitscontroles en inzicht in de manier waarop AI zijn beslissingen neemt, kunnen zelfs goedbedoelde implementaties sneller risico’s creëren dan ze verkleinen. Om echt van AI te profiteren, moeten verdedigers de beveiliging ervan met dezelfde nauwkeurigheid aanpakken als elk ander cruciaal systeem. Dat betekent vertrouwen vestigen in de gegevens waarvan het leert, verantwoordelijkheid nemen voor de acties die het onderneemt en toezicht houden op de resultaten die het oplevert. Als AI op de juiste manier wordt beveiligd, kan het de menselijke capaciteiten versterken in plaats van deze te vervangen, zodat beoefenaars slimmer kunnen werken, sneller kunnen reageren en effectiever kunnen verdedigen.

Vertrouwen scheppen voor Agentic AI-systemen

Naarmate organisaties AI beginnen te integreren in defensieve workflows, wordt identiteitsbeveiliging de basis voor vertrouwen. Elk model, script of autonome agent die in een productieomgeving actief is, vertegenwoordigt nu een nieuwe identiteit: een identiteit die toegang kan krijgen tot gegevens, opdrachten kan geven en defensieve resultaten kan beïnvloeden. Als deze identiteiten niet goed worden beheerd, kunnen de instrumenten die bedoeld zijn om de veiligheid te versterken stilletjes een bron van risico worden.

De opkomst van Agentic AI-systemen maakt dit bijzonder belangrijk. Deze systemen analyseren niet alleen; ze kunnen handelen zonder menselijke tussenkomst. Ze sorteren waarschuwingen, verrijken de context of activeren respons-playbooks onder gedelegeerd gezag van menselijke operators. Elke actie is in feite een vertrouwenstransactie. Dat vertrouwen moet gebonden zijn aan identiteit, geauthenticeerd door beleid en van begin tot eind controleerbaar.

Dezelfde principes die mensen en diensten beveiligen, moeten nu van toepassing zijn op AI-agenten:

  • Scoped-referenties en de minste bevoegdheden om ervoor te zorgen dat elk model of elke agent alleen toegang heeft tot de gegevens en functies die nodig zijn voor zijn taak.
  • Sterke authenticatie en sleutelrotatie om nabootsing van identiteit of het lekken van inloggegevens te voorkomen.
  • Herkomst van activiteiten en auditregistratie zodat elke door AI geïnitieerde actie kan worden getraceerd, gevalideerd en indien nodig teruggedraaid.
  • Segmentatie en isolatie om toegang tussen agenten te voorkomen, zodat het ene gecompromitteerde proces geen andere kan beïnvloeden.

In de praktijk betekent dit dat elk agentisch AI-systeem wordt behandeld als een eersteklas identiteit binnen uw IAM-framework. Elk account moet een gedefinieerde eigenaar, levenscyclusbeleid en monitoringbereik hebben, net als elk ander gebruikers- of serviceaccount. Defensieve teams moeten voortdurend verifiëren wat die agenten kunnen doen, en niet alleen waarvoor ze bedoeld waren, omdat capaciteiten vaak sneller gaan dan ontwerp. Met de identiteit als basis gelegd, kunnen verdedigers hun aandacht vervolgens richten op het veiligstellen van het bredere systeem.

AI beveiligen: beste praktijken voor succes

Het beveiligen van AI begint met het beschermen van de systemen die dit mogelijk maken: de modellen, datapijplijnen en integraties die nu verweven zijn in de dagelijkse beveiligingsactiviteiten. Net zoals

Als we netwerken en eindpunten beveiligen, moeten AI-systemen worden behandeld als missiekritieke infrastructuur die een gelaagde en voortdurende verdediging vereist.

De SANS Secure AI Blueprint schetst een Bescherm AI traject dat een duidelijk startpunt biedt. Gebouwd op de SANS Kritieke AI-beveiligingsrichtlijnendefinieert de blauwdruk zes controledomeinen die zich direct in de praktijk vertalen:

  • Toegangscontroles: Pas minimale privileges en sterke authenticatie toe op elk model, dataset en API. Registreer en controleer de toegang voortdurend om ongeoorloofd gebruik te voorkomen.
  • Gegevenscontroles: Valideer, zuiver en classificeer alle gegevens die worden gebruikt voor training, aanvulling of gevolgtrekking. Veilige opslag en het volgen van afstammingslijnen verminderen het risico op modelvergiftiging of gegevenslekken.
  • Implementatiestrategieën: Versterk AI-pijplijnen en -omgevingen met sandboxing, CI/CD-gating en red-teaming vóór release. Beschouw de implementatie als een gecontroleerde, controleerbare gebeurtenis en niet als een experiment.
  • Inferentiebeveiliging: Bescherm modellen tegen snelle injectie en misbruik door invoer-/uitvoervalidatie, vangrails en escalatiepaden af ​​te dwingen voor acties met grote impact.
  • Toezicht: Observeer voortdurend het gedrag en de output van het model op afwijkingen, afwijkingen en tekenen van compromissen. Dankzij effectieve telemetrie kunnen verdedigers manipulatie detecteren voordat deze zich verspreidt.
  • Modelbeveiliging: Modellen voor versie-, ondertekenings- en integriteitscontrole gedurende hun hele levenscyclus om de authenticiteit te garanderen en ongeoorloofde uitwisselingen of omscholing te voorkomen.

Deze bedieningselementen zijn rechtstreeks op elkaar afgestemd Het AI-risicobeheerkader van NIST en de OWASP Top 10 voor LLM’swaarin de meest voorkomende en daaruit voortvloeiende kwetsbaarheden in AI-systemen worden belicht – van snelle injectie en onveilige plug-in-integraties tot modelvergiftiging en gegevensblootstelling. Het toepassen van mitigaties uit deze raamwerken binnen deze zes domeinen helpt de begeleiding te vertalen naar operationele verdediging. Zodra deze fundamenten aanwezig zijn, kunnen teams zich concentreren op het verantwoord gebruik van AI door te weten wanneer ze op automatisering moeten vertrouwen en wanneer ze mensen op de hoogte moeten houden.

Balanceren tussen augmentatie en automatisering

AI-systemen zijn in staat menselijke beoefenaars te helpen als een stagiair die nooit slaapt. Het is echter van cruciaal belang voor beveiligingsteams om onderscheid te maken tussen wat ze moeten automatiseren en wat ze moeten uitbreiden. Sommige taken hebben baat bij volledige automatisering, vooral taken die herhaalbaar en meetbaar zijn en weinig risico met zich meebrengen als er een fout optreedt. Anderen eisen echter direct menselijk toezicht omdat context, intuïtie of ethiek belangrijker zijn dan snelheid.

Bedreigingsverrijking, log-parsing en deduplicatie van waarschuwingen zijn uitstekende kandidaten voor automatisering. Dit zijn data-intensieve, patroongestuurde processen waarbij consistentie de creativiteit overtreft. Daarentegen zijn incidentscoping-, attributie- en responsbeslissingen afhankelijk van de context die AI niet volledig kan bevatten. Hier zou AI moeten helpen door indicatoren naar boven te halen, volgende stappen voor te stellen of bevindingen samen te vatten, terwijl praktijkmensen de beslissingsbevoegdheid behouden.

Het vinden van dat evenwicht vereist volwassenheid in het procesontwerp. Beveiligingsteams moeten workflows categoriseren op basis van hun tolerantie voor fouten en de kosten van mislukte automatisering. Waar het risico op valse positieven of gemiste nuances groot is, houd mensen op de hoogte. Waar precisie objectief kan worden gemeten, laat AI het werk versnellen.

Bezoek ons ​​op SANS Surge 2026!

Tijdens mijn keynote bij SANS Surge 2026 (23-28 februari 2026), waar we zullen onderzoeken hoe beveiligingsteams ervoor kunnen zorgen dat AI-systemen veilig zijn om op te vertrouwen. Als uw organisatie snel vooruitgang boekt op het gebied van AI-adoptie, zal dit evenement u helpen veiliger te handelen. Kom met ons in contact met collega’s, leer van experts en ontdek hoe veilige AI er in de praktijk echt uitziet.

Schrijf u hier in voor SANS Surge 2026.

Opmerking: Dit artikel is bijgedragen door Frank Kim, SANS Institute Fellow.

Thijs Van der Does