Technologieën evolueren snel en veranderen de economie, het bestuur en het dagelijks leven. Maar naarmate de innovatie versnelt, nemen ook de digitale risico’s toe. Ook voor een land als Litouwen zijn technologische veranderingen niet langer abstract. Van elektronische handtekeningen tot digitale medische dossiers: het land is afhankelijk van veilige systemen.
Cyberbeveiliging is niet alleen een technische uitdaging geworden, maar ook een maatschappelijke uitdaging, die de medewerking vereist van wetenschappers, bedrijfsleiders en beleidsmakers. In Litouwen heeft deze samenwerking een concrete vorm aangenomen: het door de overheid gefinancierde nationale initiatief. Het project wordt gecoördineerd door het Innovation Agency Litouwen en heeft tot doel de e-veiligheid en digitale veerkracht van het land te versterken.
Onder deze paraplu werken universiteiten en bedrijven met langdurige expertise hand in hand om wetenschappelijke kennis om te zetten in marktklare, hoogwaardige innovaties. Verschillende van deze oplossingen worden al getest in echte omgevingen, bijvoorbeeld in openbare instellingen en exploitanten van kritieke infrastructuur. Zoals Martynas Survilas, directeur van de afdeling Innovation Development bij het Innovation Agency Litouwen, uitlegt:
“Ons doel is om het wetenschappelijke potentieel van Litouwen om te zetten in echte impact: oplossingen die burgers beschermen, het vertrouwen in digitale diensten versterken en helpen een inclusieve, innovatieve economie op te bouwen. Het tijdperk van geïsoleerd onderzoek is voorbij. In de praktijk moeten wetenschap en bedrijfsleven samenwerken om gelijke tred te houden met complexe, meerlaagse bedreigingen.”
Een nationale missie: veilige en inclusieve e-samenleving
Van de drie strategische nationale missies die in het kader van dit programma zijn gelanceerd, valt er één op vanwege de relevantie ervan voor het mondiale digitale landschap: “Safe and Inclusive E-Society”, gecoördineerd door Kaunas University of Technology (KTU).
De missie heeft tot doel de cyberveerkracht te vergroten en de risico’s van inbreuken op persoonlijke gegevens te verminderen, met een focus op dagelijkse gebruikers van publieke en private e-diensten, en draagt rechtstreeks bij aan de transformatie van Litouwen naar een veilige, digitaal gemachtigde samenleving. De totale waarde bedraagt ruim € 24,1 miljoen.
Het KTU-consortium omvat top Litouwse universiteiten – Vilnius Tech en Mykolas Romeris University – evenals toonaangevende cybersecuritybedrijven zoals NRD Cyber Security, Elsis PRO, Transcendent Group Baltics en het Baltic Institute of Advanced Technology, samen met brancheorganisatie Infobalt en het Litouwse Cybercrime Competence, Research and Education Center.
De onderzoeks- en ontwikkelingsinspanningen van de missie bestrijken een breed spectrum van uitdagingen op het gebied van cyberbeveiliging die het huidige digitale landschap bepalen. Teams ontwikkelen slimme, adaptieve en zelflerende gebouwen. In de financiële sector worden nieuwe AI-gestuurde verdedigingssystemen gebouwd om FinTech-bedrijven en hun gebruikers te beschermen tegen fraude en datalekken. De industriële veiligheid wordt versterkt door prototypes van sensoren voor bedreigingsdetectie voor kritieke infrastructuur, terwijl hybride systemen voor bedreigingsbeheer op maat worden gemaakt voor gebruik in de openbare veiligheid, het onderwijs en het bedrijfsleven. Ander onderzoek richt zich op het bestrijden van desinformatie via AI-modellen die automatisch gecoördineerde bot- en trolactiviteiten detecteren, en op het creëren van intelligente platforms voor geautomatiseerde informatie over cyberdreigingen en realtime analyse.
AI-fraude: een nieuw soort bedreiging
Volgens Dr. Rasa Brūzgienė, universitair hoofddocent aan de afdeling Computerwetenschappen van de Kaunas Universiteit voor Technologie, heeft de opkomst van Generatieve Kunstmatige Intelligentie (GenAI) en Grote Taalmodellen (LLM’s) de logica van fraude tegen e-overheidsdiensten fundamenteel veranderd.
“Tot nu toe was de belangrijkste verdediging gebaseerd op patroongebaseerde detectie – geautomatiseerde filters en firewalls konden bijvoorbeeld terugkerende fraudepatronen, typische zinsneden of structuren herkennen”, legt ze uit. “GenAI heeft die ‘patroon’-grens echter geëlimineerd. Tegenwoordig kunnen criminelen generatieve modellen gebruiken om contextueel nauwkeurige berichten te creëren. Modellen weten hoe ze moeten schrijven zonder grammaticale fouten, gebruiken nauwkeurige terminologie en repliceren zelfs de communicatiestijl van instellingen. Dit betekent dat moderne phishing-e-mails niet langer op ‘klassieke fraude’ lijken, maar moeilijk te herkennen zijn, zelfs voor mensen, laat staan geautomatiseerde filters.”
Ze benadrukt dat zowel de schaal als de kwaliteit van de aanvallen zijn geëvolueerd: “De schaal is toegenomen omdat GenAI de geautomatiseerde generatie van duizenden verschillende, niet-herhalende frauduleuze berichten mogelijk maakt. De kwaliteit is toegenomen omdat deze berichten gepersonaliseerd, meertalig zijn en vaak gebaseerd zijn op openbaar beschikbare informatie over het slachtoffer. Het resultaat: traditionele firewalls en spamfilters verliezen hun effectiviteit omdat hun detectoren niet langer kunnen vertrouwen op formele kenmerken van woorden, zinsdelen of structuur. De belangrijkste verandering is niet langer massale schaal, maar realisme. Met andere woorden, modern aanvallen zien er niet uit als fraude, maar als normale juridische communicatie.”

Criminelen vandaag de dag, zo waarschuwt Dr. Brūzgienė, hebben toegang tot een breed arsenaal aan AI-hulpmiddelen. Ze gebruiken modellen zoals GPT-4, GPT-5, Claude en open-source alternatieven zoals Llama, Falcon en Mistral – maar ook donkerdere varianten zoals FraudGPT, WormGPT of GhostGPT, specifiek ontworpen voor kwaadaardige activiteiten. “Ze kunnen stemmen klonen met behulp van ElevenLabs of Microsoft’s VALL-E vanaf slechts een paar seconden nadat iemand spreekt. Voor het maken van nepgezichten en video’s gebruiken ze StyleGAN, Stable Diffusion, DALL-E en DeepFaceLab, samen met lipsynchronisatieoplossingen zoals Wav2Lip en First-Order-Motion”, merkt ze op.
Nog zorgwekkender, voegt ze eraan toe, is de manier waarop deze tools met elkaar zijn georkestreerd: “Criminelen produceren fotorealistische gezichtsfoto’s, deepfake-video’s en documentkopieën met zorgvuldig bewerkte metadata. LLM’s genereren gepersonaliseerde phishing-teksten en onboarding-dialogen van hoge kwaliteit, TTS- en stemkloneringsmodellen bootsen de stem van een slachtoffer of werknemer na, en tools voor het genereren van afbeeldingen produceren ‘levendigheid’-video’s die verificatiesystemen voor de gek houden. Geautomatiseerde AI-agenten doen vervolgens de rest: accounts aanmaken, documenten uploaden en reageren op uitdagingen. Deze multimodale ketens kunnen zowel geautomatiseerde als menselijke verificatie op basis van vertrouwen omzeilen.”
“Het enge deel”, besluit Dr. Brūzgienė, “is hoe toegankelijk dit allemaal is geworden. Commerciële TTS-oplossingen zoals ElevenLabs en open-source implementaties van VALL-E bieden spraakklonen van hoge kwaliteit voor iedereen. Stabiele diffusie, DeepFaceLab en soortgelijke tools maken het gemakkelijk om snel fotorealistische afbeeldingen of deepfakes te genereren. Vanwege deze toegankelijkheid kan een enkele operator in korte tijd honderden overtuigende, verschillende, maar toch onderling verbonden nepprofielen maken. We zijn al Ik zie dergelijke gevallen bij pogingen om valse rekeningen te openen bij financiële instellingen en cryptoplatforms.”
AI-aangedreven sociale engineering
Een andere nieuwe grens is adaptieve AI-gestuurde social engineering. Aanvallers vertrouwen niet langer op statische scripts: ze gebruiken LLM’s die zich in realtime aanpassen aan de reacties van een slachtoffer.

Bots beginnen met geautomatiseerde verkenningen, waarbij ze sociale media, professionele mappen en gelekte databases doorzoeken om gepersonaliseerde profielen op te bouwen. Vervolgens stelt de LLM initiële berichten op die de professionele toon of institutionele taal van een persoon weerspiegelen. Als er geen reactie komt, schakelt het systeem automatisch over van kanaal – van e-mail naar sms of Slack – en verandert de toon van formeel naar urgent. Als een doelwit aarzelt, zorgt de AI voor plausibele geruststelling, waarbij echte interne beleidslijnen of procedures worden aangehaald.
In een typisch scenario schrijft een ‘collega’ via zakelijke e-mail, volgt LinkedIn op en belt vervolgens met een gekloonde stem – allemaal georkestreerd door verbonden AI-tools. Dr. Brūzgienė beschrijft dit als een nieuwe fase in de evolutie van cybercriminaliteit: “Social engineering is schaalbaar, intelligent en zeer persoonlijk geworden. Elk slachtoffer ervaart een unieke, evoluerende misleiding die is ontworpen om hun psychologische en gedragsmatige zwakke punten te exploiteren.”
Het Litouwse leiderschap op het gebied van cyberdefensie
Het digitale ecosysteem van Litouwen – bekend om zijn geavanceerde e-overheidsarchitectuur en gecentraliseerde elektronische identiteitssystemen (eID) – staat voor unieke uitdagingen. Het laat echter ook opmerkelijke vooruitgang zien. Het land is gestaag gestegen in de internationale indices en staat wereldwijd op de 25e plaats in de Chandler Good Government Index (CGGI) en op de 33e plaats in de Government AI Readiness Index (2025).
De Litouwse AI-strategie (2021-2030), bijgewerkt in 2025, geeft prioriteit aan AI-gestuurde cyberdefensie, detectie van afwijkingen en het opbouwen van veerkracht. Het National Cyber Security Center (NKSC) integreert AI in het monitoren van bedreigingen, waardoor het aantal ransomware-incidenten tussen 2023 en 2024 vervijfvoudigt. Samenwerking met NAVO-, ENISA- en EU-partners verbetert de hybride defensiecapaciteiten van Litouwen verder.
“Wij zien cyberveerkracht niet alleen als een technische opgave, maar als een fundament voor democratie en economische groei”, zegt Survilas. “Door de veilige en inclusieve missie voor de e-samenleving beschermen we niet alleen onze digitale infrastructuur, maar stellen we burgers ook in staat om te vertrouwen en deel te nemen aan de digitale wereld. AI zal onvermijdelijk worden gebruikt voor kwaadaardige doeleinden, maar we kunnen AI ook gebruiken om ons te verdedigen. De sleutel is samenwerking tussen sectoren en permanente educatie. Deze missie is een van de instrumenten die ons helpen dat idee om te zetten in concrete projecten, pilots en diensten voor mensen in Litouwen.”