Een chatgpt -beveiligingsfout zou uw gmail -info kunnen hebben gelekt

Tegenwoordig maken AI-aangedreven services al deel uit van de mainstream. Dit betekent dat steeds meer mensen ze actief gebruiken en ze integreren in hun dagelijkse leven. Net als bij het bladeren op internet, zijn er bepaalde voorzorgsmaatregelen om te nemen bij het gebruik van AI die veel mensen over het hoofd zien. Het eindresultaat is om uw eigen gegevensbeveiliging in gevaar te brengen. In een nieuwe ontwikkeling heeft een cybersecuritybedrijf een fout gevonden in chatgpt die hackers in staat had kunnen hebben om privé -informatie van het Gmail -account van een gebruiker te stelen.

Chatgpt -kwetsbaarheid bleek dat Gmail -gegevens had kunnen blootstellen

Om te beginnen is Radware het team dat de kwetsbaarheid heeft ontdekt. Openai heeft er al een patch voor gestuurd. De bevindingen benadrukken echter een nieuw en complex bedreigingslandschap.

Het cybersecurity -team vond het probleem binnen de functie “Deep Research” van Chatgpt. Als u niet op de hoogte bent, kan deze functie grote hoeveelheden informatie analyseren van verbonden apps zoals Gmail en Google Drive. Volgens Radware had een hacker een speciale e -mail kunnen maken met geheime instructies. Als een gebruiker Chatgpt vroeg om een ​​diepe onderzoeksquery op zijn Gmail-inbox uit te voeren, kan de chatbot worden misleid in het scannen en lekken van gevoelige gegevens naar een hacker-gecontroleerde website. Deze gegevens kunnen variëren van namen tot adressen.

Wat deze kwetsbaarheid bijzonder opmerkelijk maakt, is dat het een voorbeeld is van een AI -agent die wordt gemanipuleerd om gegevens te stelen (zoals gemeld door Bloomberg. Meestal gebruiken slechte actoren AI als een hulpmiddel om een ​​directe aanval te lanceren. Het proces was moeilijk uit te voeren. Het vereiste een zeer specifiek scenario.

De dreiging was ook moeilijk voor traditionele beveiligingstools om te detecteren. Radware merkte op dat standaard beveiligingsmaatregelen het verzenden van gegevens niet konden zien of stoppen. Dit komt omdat de gegevens -exfiltratie afkomstig is van Openai’s eigen infrastructuur, en niet van het apparaat of de browser van de gebruiker.

Kwetsbaarheid snel gepatcht, maar weerspiegelt een nieuwe categorie bedreiging

Openai werd op de hoogte gebracht van de fout en had deze in augustus gepatcht voordat hij het in september erkende. Een woordvoerder van het bedrijf verklaarde dat de veiligheid van zijn modellen een topprioriteit is. Ze zeiden ook dat ze onderzoek van de gemeenschap verwelkomen dat hen helpt hun technologie te verbeteren.

Gelukkig is deze kwetsbaarheid niet langer exploiteerbaar. Maar de ontdekking wijst op een nieuwe categorie van beveiligingsrisico’s. Naarmate AI -agenten krachtiger worden en in ons dagelijks leven worden geïntegreerd, zullen ze ervoor zorgen dat ze geen vector zijn voor gegevensdiefstal een cruciale uitdaging voor zowel ontwikkelaars als cybersecurity -professionals.

Thijs Van der Does