Onbekende dreigingsacteurs zijn waargenomen bewapening V0, een generatief kunstmatige intelligentie (AI) -instrument van Vercel, om nep-aanmeldingspagina’s te ontwerpen die zich voordoen als hun legitieme tegenhangers.
“Deze observatie geeft een nieuwe evolutie aan in de bewapening van generatieve AI door dreigingsacteurs die een vermogen hebben aangetoond om een functionele phishing -site te genereren uit eenvoudige tekstprompts,” zei Octa Threat Intelligence Researchers Houssem Eddine Bordjiba en Paula de la Hoz.
V0 is een AI-aangedreven aanbod van Vercel waarmee gebruikers eenvoudige bestemmingspagina’s en full-stack-apps kunnen maken met behulp van natuurlijke taalprompts.
De provider voor identiteitsdiensten zei dat het oplichters heeft opgemerkt die de technologie gebruiken om overtuigende replica’s van inlogpagina’s te ontwikkelen die zijn geassocieerd met meerdere merken, waaronder een niet nader genoemde klant. Na verantwoorde openbaarmaking heeft Vercel de toegang tot deze phishing -sites geblokkeerd.
De dreigingsactoren achter de campagne is ook gebleken om andere middelen te organiseren, zoals de nabootsende bedrijfslogo’s op Vercel’s infrastructuur, waarschijnlijk in een poging om het vertrouwen te misbruiken dat verband houdt met het ontwikkelaarsplatform en detectie te ontwijken.
In tegenstelling tot traditionele phishing-kits die enige inspanning vereisen om te stellen, kunnen tools zoals V0-en zijn open-source klonen op GitHub-aanvallers neppagina’s draaien door alleen een prompt te typen. Het is sneller, eenvoudiger en vereist geen coderingsvaardigheden. Dit maakt het eenvoudig voor zelfs laaggeschoolde dreigingsacteurs om overtuigende phishing-sites op schaal te bouwen.
“De waargenomen activiteit bevestigt dat de hedendaagse dreigingsacteurs actief experimenteren met en het bewapenen van toonaangevende Genai -tools om hun phishing -mogelijkheden te stroomlijnen en te verbeteren,” zeiden de onderzoekers.
“Het gebruik van een platform als Vercel’s V0.Dev stelt opkomende dreigingsacteurs in staat om snel hoogwaardige, bedrieglijke phishing-pagina’s te produceren, waardoor de snelheid en schaal van hun activiteiten worden verhoogd.”
De ontwikkeling komt omdat slechte actoren grote taalmodellen (LLMS) blijven benutten om te helpen bij hun criminele activiteiten, waarbij ongecensureerde versies van deze modellen worden gebouwd die expliciet zijn ontworpen voor illegale doeleinden. Een dergelijke LLM die populair is gewonnen in het cybercriminaliteitslandschap is Whiterabbitneodie zichzelf adverteert als een “ongecensureerd AI -model voor (Dev) SECOPS -teams.”

“Cybercriminelen worden steeds meer aangetrokken tot ongecensureerde LLMS, cybercriminaal ontworpen LLMS en jailbreaking legitieme LLMS,” zei Cisco Talos-onderzoeker Jaeson Schultz.
“Ongecensureerde LLM’s zijn niet -uitgelijnde modellen die werken zonder de beperkingen van vangrails. Deze systemen genereren graag gevoelige, controversiële of potentieel schadelijke output in reactie op gebruikersprompts. Als gevolg hiervan zijn ongecensureerde LLMS perfect geschikt voor cybercriminaal gebruik.”
Dit past op een grotere verschuiving die we zien: phishing wordt op meer manieren door AI aangedreven dan voorheen. Nep -e -mails, gekloonde stemmen, zelfs deepfake -video’s verschijnen in sociale engineeringaanvallen. Deze tools helpen aanvallers snel op te schalen en kleine oplichting om te zetten in grote, geautomatiseerde campagnes. Het gaat niet langer alleen om gebruikers te misleiden – het gaat over het bouwen van hele systemen van bedrog.