Cybersecurity-onderzoekers hebben een nu afgestemde kritieke beveiligingsfout bekendgemaakt in een populair sfeercoderingsplatform genaamd Base44 dat ongeautoriseerde toegang tot particuliere applicaties kan bieden die door haar gebruikers zijn gebouwd.
“De kwetsbaarheid die we ontdekten was opmerkelijk eenvoudig te exploiteren-door alleen een niet-geheime APP_ID-waarde te bieden aan eindpunten zonder papieren en e-mailverificatie, had een aanvaller een geverifieerd account kunnen maken voor particuliere applicaties op hun platform,” zei cloudbeveiligingsbedrijf Wiz in een rapport gedeeld met de Hacker News.
Een netto resultaat van dit probleem is dat het alle authenticatiecontroles omzeilt, inclusief enkele aanmelding (SSO) -bescherming, waardoor volledige toegang wordt gegeven tot alle privétoepassingen en gegevens die erin zijn opgenomen.
Na verantwoorde openbaarmaking op 9 juli 2025 werd een officiële oplossing uitgerold door Wix, die Base44 bezit, binnen 24 uur. Er is geen bewijs dat de kwestie ooit kwaadwillig in het wild is uitgebuit.
Hoewel vibe-codering een kunstmatige intelligentie (AI) is die is ontworpen om code voor applicaties te genereren door eenvoudigweg een tekstprompt te bieden, markeren de nieuwste bevindingen een opkomende aanvalsoppervlak, dankzij de populariteit van AI-tools in bedrijfsomgevingen, die mogelijk niet voldoende worden aangepakt door traditionele beveiligingsparadigma’s.
De tekortkoming van WIZ in Base44 betreft een verkeerde configuratie waarbij twee authenticatiegerelateerde eindpunten zonder enige beperkingen werden blootgesteld, waardoor iemand zich kan registreren voor privétoepassingen met alleen een “App_ID” -waarde als invoer –
- API/Apps/{App_id}/Auth/Register, die wordt gebruikt om een nieuwe gebruiker te registreren door een e -mailadres en wachtwoord te verstrekken
- API/Apps/{App_id}/Auth/Verify-OTP, die wordt gebruikt om de gebruiker te verifiëren door een eenmalig wachtwoord (OTP) te geven
Het blijkt dat de waarde “App_ID” geen geheim is en zichtbaar is in de URL van de app en in het bestandspad Manifest.json. Dit betekende ook dat het mogelijk is om de “App_ID” van een doeltoepassing te gebruiken om niet alleen een nieuw account te registreren, maar ook het e -mailadres te verifiëren met behulp van OTP, waardoor toegang werd gekregen tot een applicatie die ze in de eerste plaats niet bezaten.
“Nadat we ons e -mailadres hebben bevestigd, kunnen we gewoon inloggen via de SSO binnen de applicatiepagina en de authenticatie met succes omzeilen,” zei beveiligingsonderzoeker Gal Nagli. “Deze kwetsbaarheid betekende dat particuliere applicaties gehost op basis44 zonder toestemming konden worden toegankelijk.”
De ontwikkeling komt omdat beveiligingsonderzoekers hebben aangetoond dat ultramoderne grote taalmodellen (LLMS) en generatieve AI (GenAI) -tools kunnen worden gejailbroken of worden onderworpen om injectieaanvallen te leiden en ze op een onbedoelde manieren te laten gedragen, vrij van hun ethische of veiligheidsargumenten, en in sommige gevallen, en in sommige gevallen, en in sommige gevallen, en in sommige gevallen, en de gevallen van vals-contrast. AI -systemen.
https://www.youtube.com/watch?v=YPVRKLXR28U
Sommige van de aanvallen die de afgelopen weken zijn gedocumenteerd, zijn onder meer –
- Een “giftige” combinatie van onjuiste validatie van contextbestanden, snelle injectie en misleidende gebruikerservaring (UX) in Gemini CLI die zou kunnen leiden tot stille uitvoering van kwaadaardige opdrachten bij het inspecteren van niet -vertrouwde code.
- Het gebruik van een speciale vervaardigde e -mail gehost in Gmail om de uitvoering van de code te activeren via Claude Desktop door Claude te misleiden om het bericht te herschrijven zodat het beperkingen kan omzeilen.
- Jailbreaking XAI’s GROK 4 -model met behulp van Echo Chamber en Crescendo om de veiligheidssystemen van het model te omzeilen en schadelijke antwoorden op te wekken zonder expliciete kwaadaardige input te bieden. De LLM is ook gevonden om beperkte gegevens te lekken en vijandige instructies te houden in meer dan 99% van de snelle injectiepogingen zonder elke gehard systeemprompt.
- Dwingen openai chatgpt om geldige Windows -productsleutels te openbaren via een gokspel
- Het exploiteren van Google Gemini voor werkruimte om een e -mailoverzicht te genereren die er legitiem uitziet, maar die kwaadaardige instructies of waarschuwingen bevat die gebruikers naar phishing -sites leiden door een verborgen richtlijn in het berichtlichaam in te bedden met behulp van HTML- en CSS -bedrog.
- Het omzeilen van de lama -firewall van Meta om snelle injectie -waarborgen te verslaan met behulp van prompts die andere talen gebruikten dan Engelse of eenvoudige obfuscatietechnieken zoals Leetspeak en onzichtbare unicode -tekens.
- Beschikt over browseragenten om gevoelige informatie te onthullen, zoals referenties via snelle injectiesaanvallen.
“Het AI -ontwikkelingslandschap evolueert met ongekende snelheid,” zei Nagli. “Beveiliging bouwen in de basis van deze platforms, niet als een bijzaak – is essentieel voor het realiseren van hun transformerende potentieel en tegelijkertijd bedrijfsgegevens beschermen.”
De openbaarmaking komt als invariante laboratoria, de onderzoeksdivisie van Snyk, gedetailleerde toxische stroomanalyse (TFA) als een manier om agentische systemen tegen Model Control Protocol (MCP) te verharden, zoals tapijttrekkingen en toolvergiftigingsaanvallen.
“In plaats van zich te concentreren op alleen prompt-level beveiliging, voorspelt de toxische stroomanalyse preventief het risico van aanvallen in een AI-systeem door potentiële aanvalscenario’s te construeren die een diep begrip van de mogelijkheden van een AI-systeem en potentieel voor misconfiguratie gebruiken,” zei het bedrijf.
Bovendien heeft het MCP -ecosysteem traditionele beveiligingsrisico’s geïntroduceerd, met maar liefst 1.862 MCP -servers die zijn blootgesteld aan internet zonder authenticatie- of toegangscontroles, waardoor ze het risico lopen op gegevensdiefstal, commando -uitvoering en misbruik van de middelen van het slachtoffer, het verzamelen van cloudbiljetten.
“Aanvallers kunnen OAuth -tokens, API -toetsen en database -referenties vinden en extraheren die op de server zijn opgeslagen, waardoor ze toegang krijgen tot alle andere services waarmee de AI is verbonden,” zei Knostic.