Het aantal door AI ondersteunde supply chain-aanvallen is vorig jaar met 156% gestegen. Ontdek waarom traditionele verdedigingsmechanismen falen en wat CISO’s nu moeten doen om hun organisaties te beschermen.
Download hier de volledige CISO-expertgids over AI Supply Chain-aanvallen.
TL; DR
- Door AI ondersteunde supply chain-aanvallen nemen explosief toe in omvang en verfijning – Het aantal uploads van kwaadaardige pakketten naar open source-opslagplaatsen is het afgelopen jaar met 156% gestegen.
- Door AI gegenereerde malware heeft baanbrekende kenmerken – Het is standaard polymorf, contextbewust, semantisch gecamoufleerd en tijdelijk ontwijkend.
- Echte aanvallen vinden al plaats – Van de 3CX-inbreuk die 600.000 bedrijven trof tot NullBulge-aanvallen die Hugging Face- en GitHub-repository’s bewapenen.
- De detectietijden zijn dramatisch toegenomen – Uit het IBM-rapport uit 2025 blijkt dat het gemiddeld 276 dagen duurt voordat inbreuken worden geïdentificeerd, waarbij AI-ondersteunde aanvallen deze periode mogelijk kunnen verlengen.
- Traditionele beveiligingstools hebben het moeilijk – Statische analyse en op handtekeningen gebaseerde detectie falen bij bedreigingen die zich actief aanpassen.
- Er ontstaan nieuwe defensieve strategieën – Organisaties zetten AI-bewuste beveiliging in om de detectie van bedreigingen te verbeteren.
- Naleving van de regelgeving wordt verplicht – De EU AI Act legt boetes op tot €35 miljoen of 7% van de mondiale inkomsten voor ernstige overtredingen.
- Onmiddellijke actie is van cruciaal belang – Dit gaat niet over toekomstbestendigheid, maar over hedenbestendigheid.

De evolutie van traditionele exploits naar AI-aangedreven infiltratie
Weet u nog dat supply chain-aanvallen leidden tot gestolen inloggegevens en geknoeide updates? Dat waren eenvoudiger tijden. De realiteit van vandaag is veel interessanter en oneindig veel complexer.
De softwaretoeleveringsketen is de basis geworden voor een nieuw soort aanval. Zie het als volgt: als traditionele malware een inbreker is die uw slot plukt, is AI-gebaseerde malware een shapeshifter die de routines van uw bewakers bestudeert, hun blinde vlekken leert kennen en verandert in de schoonmaakploeg.
Neem het PyTorch-incident. Aanvallers hebben een kwaadaardig pakket met de naam torchtriton naar PyPI geüpload dat zich voordeed als een legitieme afhankelijkheid. Binnen enkele uren was het duizenden systemen geïnfiltreerd, waarbij gevoelige gegevens uit machine learning-omgevingen werden geëxfiltreerd. De kicker? Dit was nog steeds een “traditionele” aanval.
Snel vooruit naar vandaag, en we zien iets fundamenteel anders. Kijk eens naar deze drie recente voorbeelden:
1. NullBulge Group – Knuffelgezicht en GitHub-aanvallen (2024)
Een bedreigingsacteur genaamd NullBulge voerde aanvallen uit op de toeleveringsketen door code in open-sourcerepository’s op Hugging Face en GitHub te bewapenen, gericht op AI-tools en gamingsoftware. De groep heeft de ComfyUI_LLMVISION-extensie op GitHub gecompromitteerd en kwaadaardige code verspreid via verschillende AI-platforms, met behulp van op Python gebaseerde payloads die gegevens via Discord-webhooks hebben geëxfiltreerd en aangepaste LockBit-ransomware hebben geleverd.

2. Solana Web3.js bibliotheekaanval (december 2024)
Op 2 december 2024 hebben aanvallers via een phishing-campagne een account met publicatietoegang voor de @solana/web3.js npm-bibliotheek gecompromitteerd. Ze publiceerden kwaadaardige versies 1.95.6 en 1.95.7 die achterdeurcode bevatten om privésleutels te stelen en cryptocurrency-portefeuilles leeg te maken, resulterend in de diefstal van ongeveer $160.000-$190.000 aan crypto-activa gedurende een periode van vijf uur.
3. Wondershare RepairIt-kwetsbaarheden (september 2025)
De AI-aangedreven beeld- en videoverbeteringsapplicatie Wondershare RepairIt stelde gevoelige gebruikersgegevens bloot via hardgecodeerde cloudreferenties in zijn binaire bestand. Hierdoor konden potentiële aanvallers AI-modellen en uitvoerbare software aanpassen en supply chain-aanvallen tegen klanten lanceren door legitieme AI-modellen te vervangen die automatisch door de applicatie werden opgehaald.
Download de expertgids van de CISO voor volledige leverancierslijsten en implementatiestappen.
De toenemende dreiging: AI verandert alles
Laten we dit in de realiteit onderbouwen. De 3CX supply chain-aanval van 2023 bracht software in gevaar die door 600.000 bedrijven wereldwijd werd gebruikt, van American Express tot Mercedes-Benz. Hoewel het niet definitief door AI werd gegenereerd, demonstreerde het de polymorfe kenmerken die we nu associëren met AI-ondersteunde aanvallen: elke payload was uniek, waardoor op handtekeningen gebaseerde detectie nutteloos werd.
Volgens de gegevens van Sonatype is het aantal uploads van kwaadaardige pakketten jaar-op-jaar met 156% gestegen. Zorgwekkender is de verfijningscurve. Uit de recente analyse van MITRE van PyPI-malwarecampagnes zijn steeds complexere verduisteringspatronen gebleken die consistent zijn met geautomatiseerde generatie, hoewel definitieve AI-attributie een uitdaging blijft.
Dit is wat door AI gegenereerde malware echt anders maakt:
- Standaard polymorf: Net als een virus dat zijn eigen DNA herschrijft, is elk exemplaar structureel uniek, terwijl het hetzelfde kwaadaardige doel behoudt.
- Contextbewust: Moderne AI-malware omvat sandbox-detectie waar een paranoïde programmeur trots op zou zijn. Een recent voorbeeld wachtte tot het Slack API-aanroepen en Git-commits detecteerde, tekenen van een echte ontwikkelomgeving, voordat het werd geactiveerd.
- Semantisch gecamoufleerd: De kwaadaardige code verbergt zich niet alleen; het doet zich voor als legitieme functionaliteit. We hebben achterdeurtjes gezien, vermomd als telemetriemodules, compleet met overtuigende documentatie en zelfs unit-tests.
- Tijdelijk ontwijkend: Geduld is een schone zaak, vooral als het om malware gaat. Sommige varianten liggen weken of maanden inactief, wachtend op specifieke triggers of overleven simpelweg de beveiligingsaudits.
Waarom traditionele beveiligingsbenaderingen falen
De meeste organisaties brengen messen mee naar een vuurgevecht, en de wapens worden nu door AI aangedreven en kunnen kogels ontwijken.
Denk eens aan de tijdlijn van een typische inbreuk. Uit IBM’s Cost of a Data Breach Report 2025 blijkt dat het organisaties gemiddeld 276 dagen kost om een datalek te identificeren en nog eens 73 dagen om het in te dammen. Dat zijn negen maanden waarin aanvallers eigenaar zijn van uw omgeving. Met door AI gegenereerde varianten die dagelijks muteren, speelt uw op handtekeningen gebaseerde antivirusprogramma in wezen geblinddoekt meppen.
AI creëert niet alleen betere malware, het zorgt ook voor een revolutie in de hele levenscyclus van aanvallen:
- Valse ontwikkelaarspersona’s: Onderzoekers hebben ‘SockPuppet’-aanvallen gedocumenteerd waarbij AI-gegenereerde ontwikkelaarsprofielen maandenlang legitieme code aandroegen voordat er backdoors werden geïnjecteerd. Deze persona’s hadden een GitHub-geschiedenis, deelname aan Stack Overflow en hielden zelfs persoonlijke blogs bij – allemaal gegenereerd door AI.
- Typosquatting op schaal: In 2024 identificeerden beveiligingsteams duizenden kwaadaardige pakketten die zich op AI-bibliotheken richtten. Namen als openai-official, chatgpt-api en tensorfllow (let op de extra ‘l’) hielden duizenden ontwikkelaars gevangen.
- Gegevensvergiftiging: Recent Anthropic Research heeft aangetoond hoe aanvallers tijdens de training ML-modellen kunnen compromitteren door achterdeurtjes in te voegen die bij specifieke invoer worden geactiveerd. Stel je voor dat je fraudedetectie-AI plotseling transacties van specifieke accounts negeert.
- Geautomatiseerde social engineering: Phishing is niet alleen meer voor e-mails. AI-systemen genereren contextbewuste pull-verzoeken, opmerkingen en zelfs documentatie die legitiemer lijkt dan veel echte bijdragen.

Een nieuw raamwerk voor defensie
Vooruitstrevende organisaties passen zich al aan en de resultaten zijn veelbelovend.
Het nieuwe defensieve speelboek bevat:
- AI-specifieke detectie: Het OSS-Fuzz-project van Google omvat nu statistische analyses die codepatronen identificeren die typisch zijn voor AI-generatie. De eerste resultaten zijn veelbelovend in het onderscheiden van door AI gegenereerde code van door mensen geschreven code – niet perfect, maar een solide eerste verdedigingslinie.
- Analyse van gedragsherkomst: Zie dit als een polygraaf voor code. Door vastleggingspatronen, timing en taalkundige analyse van opmerkingen en documentatie bij te houden, kunnen systemen verdachte bijdragen signaleren.
- Vuur met vuur bestrijden: Counterfit van Microsoft en het AI Red Team van Google gebruiken defensieve AI om bedreigingen te identificeren. Deze systemen kunnen door AI gegenereerde malwarevarianten identificeren die traditionele tools omzeilen.
- Zero-Trust Runtime-verdediging: Stel dat je al bent geschonden. Bedrijven als Netflix zijn pioniers op het gebied van runtime application self-protection (RASP) die bedreigingen tegenhoudt, zelfs nadat ze zijn uitgevoerd. Het is alsof er in elke applicatie een bewaker aanwezig is.
- Menselijke verificatie: De beweging ‘bewijs van menselijkheid’ wint aan kracht. Het streven van GitHub naar door GPG ondertekende commits zorgt voor wrijving, maar legt de lat voor aanvallers dramatisch hoger.
De regelgevingsimperatief
Als de technische uitdagingen u niet motiveren, zal de regelgevende hamer dat misschien wel doen. De EU AI Act is geen rommel, en dat geldt ook voor uw potentiële procesadvocaten.
De wet gaat expliciet in op de beveiliging van de AI-toeleveringsketen met uitgebreide eisen, waaronder:
- Transparantieverplichtingen: Documenteer uw AI-gebruik en supply chain-controles
- Risicobeoordelingen: Regelmatige evaluatie van AI-gerelateerde bedreigingen
- Openbaarmaking van incidenten: 72-uurs melding voor inbreuken op AI
- Strikte aansprakelijkheid: Je bent verantwoordelijk, zelfs als “de AI het heeft gedaan”
De sancties variëren met uw wereldwijde omzet, tot € 35 miljoen of 7% van de wereldwijde omzet voor de ernstigste overtredingen. Voor de context zou dat een aanzienlijke straf zijn voor een groot technologiebedrijf.
Maar hier is de zilveren rand: dezelfde controles die bescherming bieden tegen AI-aanvallen voldoen doorgaans aan de meeste compliance-eisen.
Uw actieplan begint nu
De convergentie van AI en aanvallen op de toeleveringsketen is niet zomaar een bedreiging op afstand; het is de realiteit van vandaag. Maar in tegenstelling tot veel uitdagingen op het gebied van cyberbeveiliging, wordt deze geleverd met een routekaart.
Onmiddellijke acties (deze week):
- Controleer uw afhankelijkheden voor typosquatting-varianten.
- Schakel het ondertekenen van commits in voor kritieke repository’s.
- Bekijk pakketten die in de afgelopen 90 dagen zijn toegevoegd.
Korte termijn (volgende maand):
- Implementeer gedragsanalyse in uw CI/CD-pijplijn.
- Implementeer runtime-beveiliging voor kritieke applicaties.
- Creëer een ‘bewijs van menselijkheid’ voor nieuwe bijdragers.
Lange termijn (volgend kwartaal):
- Integreer AI-specifieke detectietools.
- Ontwikkel een AI-incidentrespons-playbook.
- Sluit u aan bij de wettelijke vereisten.
De organisaties die zich nu aanpassen, zullen niet alleen overleven, maar ook een concurrentievoordeel hebben. Terwijl anderen hun uiterste best doen om op inbreuken te reageren, voorkom jij ze.
Voor het volledige actieplan en de aanbevolen leveranciers kunt u hier de PDF-handleiding van de CISO downloaden.