In de wereld van steeds groter wordende op kunstmatige intelligentie gebaseerde functies kun je gemakkelijk voor de gek worden gehouden door nepfoto’s en -video’s die zijn gemaakt door AI-tools. Enkele van de meest populaire tools zijn OpenAI’s ChatGPT-4.0 of GPT-4o en Google’s Gemini. De ChatGPT-4.0-versie is een van de meest populaire tools hiervan. Het kan gemakkelijk deep-faked video’s van een echte persoon genereren. Nu hebben onderzoekers gesuggereerd dat GPT-4o van OpenAI gemakkelijk kan worden gehackt om op spraak gebaseerde oplichting te lanceren waarmee mensen verkeerd interpreteren.
OpenAI’s GPT-4o-versie kan worden gehackt via spraakgestuurde oplichting, suggereert een nieuw rapport
Volgens een rapport van BleepingComputer kan de ChatGPT-4o-versie worden gehackt om op spraak gebaseerde oplichting te lanceren. Onderzoekers hebben aangetoond dat het mogelijk is dat de realtime spraak-API van OpenAI voor ChatGPT-40 kan worden gehackt om oplichting te creëren. Deze kunnen lage tot matige succespercentages hebben, suggereert het rapport. Het is vermeldenswaard dat de gehackte oplichting van ChatGPT-40 meestal gebaseerd is op een nepstem.
De gehackte oplichting van de GPT-40-versie kan al een “miljoenendollarprobleem” zijn, suggereert de bron. Ze kunnen de deepfake-technologie en de door AI aangedreven tekst-naar-spraak-tools van ChatGPT gebruiken om de zaken nog erger te maken. Bovendien suggereert de bron dat deze tools kunnen worden gebruikt om zonder menselijke inspanning grootschalige oplichtingsoperaties uit te voeren en te creëren.
In een gesprek met BleepingComputer legde OpenAI uit dat zijn nieuwste model, dat momenteel in preview is, “geavanceerd redeneren” ondersteunt en is gebouwd om dit soort misbruik beter te kunnen opmerken: “We maken ChatGPT voortdurend beter in het stoppen van opzettelijke pogingen om het te misleiden, zonder verlies te lijden. de behulpzaamheid of creativiteit ervan”, vertelde de woordvoerder van het bedrijf aan de publicatie.
Het nieuwste model van OpenAI beschikt over een spraakgestuurde AI-agent en kan worden gebruikt om oplichting te creëren
Met name het nieuwste model van OpenAI, dat een op spraak gebaseerde AI-agent biedt, kan worden gebruikt om met deze technologie oplichting te creëren. Opvallend is dat de nieuwste ChatGPT-versie enkele waarborgen biedt tegen misbruik van de tools op de een of andere manier. Bovendien zijn sommige hackers erin geslaagd het te hacken om kwetsbaarheidstools te creëren, suggereert de bron. Opvallend is dat het succespercentage van deze oplichting varieert van app tot app, zoals het stelen van inloggegevens uit Gmail.