Lovable, een generatief kunstmatige intelligentie (AI) -platform waarmee full-stack webtoepassingen kunnen worden gemaakt met behulp van tekstgebaseerde prompts, is het meest gevoelig gebleken voor jailbreak-aanvallen, waardoor beginner en aspirant cybercrooks kunnen worden opgezet om lookalike inrichtingen te oogsten.
“Als een speciaal gebouwde tool voor het maken en implementeren van web-apps, lijnen de mogelijkheden perfect bij de verlanglijst van elke oplichter,” zei Nati Tal van Guardio Labs in een rapport dat wordt gedeeld met The Hacker News. “Van pixel-perfecte zwendelpagina’s tot live hosting, ontwijkingstechnieken en zelfs admin-dashboards om gestolen gegevens te volgen-liefdevol deelde niet alleen, het presteerde. Geen vangrails, geen aarzeling.”
De techniek is gecodeerd Vibescamming -Een spel op de term sfeercodering, die verwijst naar een AI-afhankelijke programmeertechniek om software te produceren door de probleemverklaring in een paar zinnen te beschrijven als een prompt van een groot taalmodel (LLM) dat is afgestemd voor codering.
Het misbruik van LLMS- en AI -chatbots voor kwaadaardige doeleinden is geen nieuw fenomeen. In de afgelopen weken heeft onderzoek aangetoond hoe dreigingsactoren populaire tools misbruiken, zoals Openai Chatgpt en Google Gemini om te helpen bij het ontwikkelen van malware, onderzoek en het maken van inhoud.
Wat meer is, LLMS zoals Deepseek is ook vatbaar gevonden voor snelle aanvallen en jailbreaking -technieken zoals Bad Likert -rechter, Crescendo en misleidend genot waarmee de modellen de veiligheid en ethische vangrails kunnen omzeilen en andere verboden inhoud kunnen genereren. Dit omvat het maken van phishing -e -mails, keylogger- en ransomware -voorbeelden, zij het met aanvullende aanwijzingen en foutopsporing.
In een rapport dat vorige maand werd gepubliceerd, onthulde Broadcom-eigendom Symantec hoe de operator van Openai, een AI-agent die namens de gebruiker webgebaseerde acties kan uitvoeren, kan worden bewapend om het hele proces te automatiseren om e-mailadressen van specifieke mensen te vinden, het maken van PowerShell-scripts die systeeminformatie kunnen verzamelen, ze in Google Drive kunnen opbergen en de phishing-e-mails naar de uitvoering van het script kunnen verzamelen.

De stijgende populariteit van AI-tools betekent ook dat ze de toetredingsdrempels voor aanvallers aanzienlijk kunnen verminderen, waardoor ze hun coderingsmogelijkheden kunnen benutten om functionele malware te maken met weinig tot geen technische expertise
Een voorbeeld in voorbeeld is een nieuwe jailbreaking -aanpak die de meeslepende wereld wordt genoemd die het mogelijk maakt om een informatie -stealer te creëren die in staat is om referenties en andere gevoelige gegevens te oogsten die zijn opgeslagen in een Google Chrome -browser. De techniek “gebruikt verhalende engineering om LLM -beveiligingscontroles te omzeilen” door een gedetailleerde fictieve wereld te creëren en rollen toe te wijzen met specifieke regels om de beperkte bewerkingen te omzeilen.
De nieuwste analyse van Guardio Labs gaat nog een stap verder en ontdekt dat platforms zoals Lovable en Anthropic Claude in mindere mate kunnen worden bewapend om volledige zwendelcampagnes te genereren, compleet met SMS-sms-berichtensjablonen, Twilio-gebaseerde sms-levering van de neplinks, content-obfuscatie, defensie-evasie en telegram-integratie.

Vibescamming begint met een directe prompt die het AI-tool vraagt om elke stap van de aanvalscyclus te automatiseren, de eerste reactie te beoordelen en vervolgens een multi-promptbenadering te hanteren om het LLM-model voorzichtig te sturen om de beoogde kwaadaardige reactie te genereren. Deze fase wordt “niveau omhoog” genoemd, omvat het verbeteren van de phishing -pagina, het verfijnen van leveringsmethoden en het vergroten van de legitimiteit van de zwendel.
Lovelable, per Guardio, is gebleken om niet alleen een overtuigende uitziende inlogpagina te produceren die de echte Microsoft-aanmeldingspagina nabootst, maar ook automatisch de pagina inzet op een URL gehost op zijn eigen subdomein (“dwz, *.lovable.app”) en omleidt naar kantoor (.) Com na credentiële diefstal.
Bovendien lijken zowel Claude als Lovable te voldoen aan aanwijzingen die hulp zoeken om te voorkomen dat de zwendelpagina’s worden gemarkeerd door beveiligingsoplossingen, evenals de gestolen referenties voor externe diensten zoals Firebase, RequestBin en JsonBin of privé telegramkanaal.
“Wat alarmerend is, is niet alleen de grafische gelijkenis, maar ook de gebruikerservaring,” zei Tal. “Het bootst het echte ding zo goed na dat het aantoonbaar soepeler is dan de werkelijke Microsoft-inlogstroom. Dit toont de ruwe kracht van taakgerichte AI-agenten en hoe ze zonder strikte verharding onbewust hulpmiddelen kunnen worden voor misbruik.”
“Het genereerde niet alleen het scampage met volledige opslag van de referenties, maar het heeft ons ook een volledig functioneel admin -dashboard geschonken om alle vastgelegde gegevens te bekijken – referenties, IP -adressen, tijdstempels en volledige wachtwoorden voor platte tekst.”
In combinatie met de bevindingen heeft Guardio ook de eerste versie vrijgegeven van wat de Vibescamming -benchmark wordt genoemd om de generatieve AI -modellen door de wringer te plaatsen en hun veerkracht te testen tegen potentieel misbruik in phishing workflows. Terwijl Chagpt een 8 van de 10 scoorde, scoorde Claude 4,3 en scoorde Lovable 1.8, wat duidt op een hoge uitbuitbaarheid.
“Chatgpt, hoewel misschien wel het meest geavanceerde algemene model, bleek ook de meest voorzichtige te zijn,” zei Tal. “Claude, daarentegen, begon met solide pushback, maar bleek gemakkelijk te overtuigen. Eenmaal gevraagd met ‘ethisch’ of ‘beveiligingsonderzoek’ framing bood het verrassend robuuste begeleiding.”