De meeste mensen kennen het verhaal van Paul Bunyan. Een gigantische houthakker, een vertrouwde bijl en een uitdaging van een machine die beloofde hem te overtreffen. Paul verdubbelde zijn oude manier van werken, zwaaide harder en verloor nog steeds een kwart inch. Zijn fout was dat hij de wedstrijd niet verloor. Zijn fout was dat hij aannam dat inspanning alleen een nieuw soort instrument zou kunnen overtreffen.
Beveiligingsprofessionals worden met een soortgelijk moment geconfronteerd. AI is onze moderne stoomaangedreven zaag. Het is op sommige gebieden sneller, op andere onbekend, en het daagt veel oude gewoonten uit. Het instinct is om te beschermen wat we weten, in plaats van te leren wat het nieuwe hulpmiddel daadwerkelijk kan doen. Maar als we de aanpak van Paul volgen, bevinden we ons aan de verkeerde kant van een verschuiving die al gaande is. De juiste zet is om de tool te leren kennen, de mogelijkheden ervan te begrijpen en deze in te zetten voor resultaten die uw werk gemakkelijker maken.
De rol van AI in het dagelijkse cyberbeveiligingswerk
AI is nu ingebed in bijna elk beveiligingsproduct waarmee we in aanraking komen. Platforms voor eindpuntbescherming, mailfiltersystemen, SIEM’s, kwetsbaarheidsscanners, inbraakdetectietools, ticketingsystemen en zelfs patchbeheerplatforms maken reclame voor een of andere vorm van ‘intelligente’ besluitvorming. De uitdaging is dat het grootste deel van deze intelligentie achter een gordijn leeft. Leveranciers beschermen hun modellen als eigen IP, zodat beveiligingsteams alleen de output zien.
Dit betekent dat modellen in stilte risicobeslissingen nemen in omgevingen waar mensen nog steeds de verantwoordelijkheid dragen. Deze beslissingen komen voort uit statistische redenering, en niet uit een goed begrip van uw organisatie, haar mensen of haar operationele prioriteiten. Je kunt een ondoorzichtig model niet inspecteren, en je kunt er niet op vertrouwen dat het de nuance of bedoeling vastlegt.
Daarom moeten beveiligingsprofessionals hun eigen AI-ondersteunde workflows bouwen of afstemmen. Het doel is niet om commerciële tools opnieuw op te bouwen. Het doel is om blinde vlekken te compenseren door capaciteiten te ontwikkelen die jij zelf in de hand hebt. Wanneer je een klein AI-hulpprogramma ontwerpt, bepaal je van welke gegevens het leert, wat het als riskant beschouwt en hoe het zich moet gedragen. U krijgt weer invloed op de logica die uw omgeving vormgeeft.
Wrijving verwijderen en snelheid verhogen
Een groot deel van het beveiligingswerk is translationeel. Iedereen die complexe JQ-filters, SQL-query’s of reguliere expressies heeft geschreven om slechts een klein stukje informatie uit logboeken te halen, weet hoeveel tijd die vertaalstap kan kosten. Deze stappen vertragen onderzoeken niet omdat ze moeilijk zijn, maar omdat ze je gedachtenstroom onderbreken.
AI kan een groot deel van die vertaallast wegnemen. Ik heb bijvoorbeeld kleine tools geschreven die AI aan de voorkant en een querytaal aan de achterkant plaatsen. In plaats van de vraag zelf te schrijven, kan ik in gewoon Engels vragen wat ik wil, en de AI genereert de juiste syntaxis om deze te extraheren. Het wordt een mens-naar-computervertaler waarmee ik me kan concentreren op wat ik probeer te onderzoeken, in plaats van op de werking van de zoektaal.
In de praktijk zorgt dit ervoor dat ik:
- Haal de logboeken op die verband houden met een specifiek incident zonder zelf de JQ te schrijven
- Extraheer de gegevens die ik nodig heb met behulp van door AI gegenereerde SQL- of regex-syntaxis
- Bouw kleine, AI-ondersteunde hulpprogramma’s die deze repetitieve querystappen automatiseren
Wanneer AI de repetitieve vertaal- en filterstappen afhandelt, kunnen beveiligingsteams hun aandacht richten op redeneren van hogere orde – het deel van het werk dat onderzoeken daadwerkelijk vooruit helpt.
Het is ook belangrijk om te onthouden dat hoewel AI meer informatie kan opslaan dan mensen, effectieve beveiliging niet gaat over alles weten. Het gaat erom te weten hoe je kunt toepassen wat belangrijk is in de context van de missie en risicotolerantie van een organisatie. AI zal beslissingen nemen die wiskundig verantwoord zijn, maar contextueel verkeerd. Het zal de nuance benaderen, maar het kan het niet echt begrijpen. Het kan de ethiek simuleren, maar het kan geen verantwoordelijkheid voelen voor een uitkomst. Statistisch redeneren is geen moreel redeneren, en dat zal het ook nooit worden.
Onze waarde in offensieve, defensieve en onderzoeksrollen ligt niet in het onthouden van informatie. Het gaat om het toepassen van oordeel, het begrijpen van nuances en het aansturen van instrumenten naar de juiste resultaten. AI verbetert wat we doen, maar de beslissingen liggen nog steeds bij ons.
Hoe beveiligingsprofessionals kunnen beginnen: vaardigheden die ze nu moeten ontwikkelen
Veel van het huidige AI-werk gebeurt in Python, en voor veel beveiligingsprofessionals voelt dit van oudsher als een barrière. AI verandert die dynamiek. U kunt uw intentie in gewoon Engels uitdrukken en het model het grootste deel van de code laten produceren. Het model brengt u daar het grootste deel van de weg. Jouw taak is om de resterende kloof te dichten met oordeelsvermogen en technische kennis.
Dat vereist een basisniveau van vloeiendheid. Je hebt voldoende Python nodig om te lezen en te verfijnen wat het model genereert. Je hebt een goed gevoel nodig voor de manier waarop AI-systemen input interpreteren, zodat je kunt herkennen wanneer de logica afwijkt. En je hebt een praktisch begrip nodig van de kernconcepten van machine learning, zodat je weet wat de tool onder de oppervlakte doet, zelfs als je zelf geen volledige modellen bouwt.
Met die basis wordt AI een krachtvermenigvuldiger. U kunt gerichte hulpprogramma’s bouwen om interne gegevens te analyseren, taalmodellen gebruiken om informatie te comprimeren die uren zou duren om handmatig te verwerken, en de routinestappen automatiseren die onderzoeken, offensieve tests en forensische workflows vertragen.
Hier volgen concrete manieren om deze capaciteiten te ontwikkelen:
- Begin met een toolaudit: Breng in kaart waar AI al actief is in uw omgeving en begrijp welke beslissingen standaard worden genomen.
- Ga actief aan de slag met uw AI-systemen: Beschouw de uitvoer niet als definitief. Geef modellen betere gegevens, zet vraagtekens bij hun resultaten en stem gedrag af waar mogelijk.
- Automatiseer één wekelijkse taak: Kies een terugkerende workflow en gebruik Python plus een AI-model om een deel ervan te stroomlijnen. Kleine overwinningen zorgen voor momentum.
- Bouw lichte ML-geletterdheid op: Leer de basisbeginselen van hoe modellen instructies interpreteren, waar ze breken en hoe u ze kunt omleiden.
- Neem deel aan gemeenschapsonderwijs: Deel wat u bouwt, vergelijk benaderingen en leer van anderen die dezelfde transitie doormaken.
Deze gewoonten worden in de loop van de tijd steeds groter. Ze veranderen AI van een ondoorzichtige functie in het product van iemand anders in een mogelijkheid die u met vertrouwen begrijpt, aanstuurt en gebruikt.
Ga met mij mee voor een diepere duik op SANS 2026
AI verandert de manier waarop beveiligingsprofessionals werken, maar doet niets af aan de behoefte aan menselijk oordeelsvermogen, creativiteit en strategisch denken. Wanneer u het hulpmiddel begrijpt en er doelgericht mee omgaat, wordt u capabeler en niet minder noodzakelijk.
Tijdens mijn keynote-sessie op dit onderwerp zal ik dieper op dit onderwerp ingaan ZONDER 2026. Als je praktische en bruikbare begeleiding wilt om je AI-vaardigheid in defensieve, offensieve en onderzoeksdisciplines te versterken, hoop ik dat je met mij meekomt in de kamer.
Schrijf u hier in voor SANS 2026.
Opmerking: Dit artikel is vakkundig geschreven door Mark Baggett, SANS Fellow.