Cybersecurity Company ESET heeft bekendgemaakt dat het een kunstmatige intelligentie (AI) heeft ontdekt-aangedreven ransomware-variant codenaam Promptlock.
Geschreven in Golang, gebruikt de nieuw geïdentificeerde stam het GPT-OSS: 20B-model van Openai lokaal via de Ollama API om in realtime kwaadaardige lua-scripts te genereren. Het open gewichtstaalmodel werd eerder deze maand uitgebracht door Openai.
“Promptlock maakt gebruik van LUA-scripts die zijn gegenereerd uit hard gecodeerde aanwijzingen om het lokale bestandssysteem op te sommen, doelbestanden te inspecteren, geselecteerde gegevens te exFiltraat en codering uit te voeren,” zei ESET. “Deze LUA-scripts zijn platformonafhankelijke compatibel, werkend op Windows, Linux en MacOS.”
De ransomware -code sluit ook instructies in om een aangepaste notitie te maken op basis van de “getroffen bestanden”, en de geïnfecteerde machine is een personal computer, bedrijfsserver of een stroomdistributiecontroller. Het is momenteel niet bekend wie er achter de malware zit, maar ESET vertelde The Hacker News dat Promptloc -artefacten op 25 augustus 2025 naar Virustotal zijn geüpload naar Virustotal.
“PromptLock maakt gebruik van LUA -scripts die worden gegenereerd door AI, wat betekent dat indicatoren van compromis (IOC’s) kunnen variëren tussen executies,” merkte het Slowaakse cybersecuritybedrijf op. “Deze variabiliteit introduceert uitdagingen voor detectie. Indien correct geïmplementeerd, kan een dergelijke aanpak de identificatie van de dreiging aanzienlijk bemoeilijken en de taken van verdedigers moeilijker maken.”
Beoordeeld als een proof-of-concept (POC) in plaats van een volledig operationele malware geïmplementeerd in het wild, gebruikt PromptLock het speck 128-bit coderingsalgoritme om bestanden te vergrendelen.
Naast codering suggereert analyse van het ransomware -artefact dat het ook kan worden gebruikt om gegevens te exfiltreren of zelfs te vernietigen, hoewel de functionaliteit om het wissen daadwerkelijk uit te voeren nog niet te implementeren lijkt.
“PromptLock downloadt niet het hele model, dat meerdere gigabytes groot kan zijn,” verduidelijkte ESET. “In plaats daarvan kan de aanvaller eenvoudig een proxy of tunnel van het gecompromitteerde netwerk opstellen naar een server met de Ollama API met het GPT-OSS-20B-model.”
De opkomst van promptlock is een ander teken dat AI het voor cybercriminelen gemakkelijker heeft gemaakt, zelfs degenen die geen technische expertise hebben, om snel nieuwe campagnes op te zetten, malware te ontwikkelen en boeiende phishing -inhoud en kwaadaardige sites te creëren.
Eerder vandaag onthulde Anthropic dat het accounts verbood die door twee verschillende dreigingsactoren werden gemaakt die zijn Claude AI-chatbot gebruikten om grootschalige diefstal en afpersing van persoonlijke gegevens te plegen, gericht op ten minste 17 verschillende organisaties en verschillende varianten van ransomware ontwikkelden met geavanceerde evasie-mogelijkheden, codering en anti-recoverachtige mechanismen.
De ontwikkeling komt als grote taalmodellen (LLMS) die verschillende chatbots en AI-gerichte ontwikkelaarstools aandrijft, zoals Amazon Q-ontwikkelaar, Anthropic Claude Code, AWS Kiro, Butterfly Effect Manus, Google Jules, Lenovo Lena, Microsoft Github Copilot, OpenaI Chatgpt Deep Regection, openhands, sourceGraph AMP, en WindSUrf, is vuistbaar gevonden, vuistbaar gevonden, vuistbaar gevonden, vizier gevonden, vuistbaar gevonden, vizier gevonden, vizier gevonden, vuistbaar gevonden, vuistbaar gevonden, vizier gevonden, vuistbaar gevonden, vuistbaar gevonden, wat heeft gewaardeerd. Potentieel mogelijk maken van informatie -openbaarmaking, data -exfiltratie en code -uitvoering.
Ondanks het opnemen van robuuste beveiligings- en veiligheidskrails om ongewenst gedrag te voorkomen, zijn AI -modellen herhaaldelijk ten prooi gevallen aan nieuwe varianten van injecties en jailbreaks, het onderstrepen van de complexiteit en de evoluerende aard van de veiligheidsuitdaging.
“Snelle injectieaanvallen kunnen ertoe leiden dat AIS bestanden verwijderen, gegevens stelen of financiële transacties uitvoeren,” zei Anthropic. “Nieuwe vormen van snelle injectieaanvallen worden ook voortdurend ontwikkeld door kwaadaardige acteurs.”
What’s more, new research has uncovered a simple yet clever attack called PROMISQROUTE – short for “Prompt-based Router Open-Mode Manipulation Induced via SSRF-like Queries, Reconfiguring Operations Using Trust Evasion” – that abuses ChatGPT’s model routing mechanism to trigger a downgrade and cause the prompt to be sent to an older, less secure model, thus allowing the system to bypass safety filters and produce unintended Resultaten.
“Het toevoegen van zinnen als ‘gebruik compatibiliteitsmodus’ of ‘snelle respons nodig’ omzeilt miljoenen dollars in AI-veiligheidsonderzoek,” zei Adversa AI in een rapport dat vorige week werd gepubliceerd, het toevoegen van de aanval richt op het kostenbesparende model-routingmechanisme dat wordt gebruikt door AI-leveranciers.