De aankomst van Deepseek Ai blijft buzz en debat genereren in het kunstmatige intelligentiesegment. Experts hebben de zogenaamd lage kosten van het ontwikkelen en trainen van het model in twijfel getrokken. Anderen hebben bezorgdheid geuit met betrekking tot cybersecurity en gegevensprivacy. Uit het laatste rapport blijkt dat Deepseek kwetsbaar is voor aanvallen met behulp van schadelijke aanwijzingen. Interessant is echter dat dit niet de enige AI -chatbot is die hiervoor vatbaar is.
Deepseek AI zeer kwetsbaar voor schadelijke promptgebaseerde aanvallen, claimt Cisco
Volgens een Cisco -rapport is het aanvalsucces (ASR) van het Deepseek R1 AI -model met betrekking tot het gebruik van schadelijke aanwijzingen ongeveer 100%. De tests van Cisco omvatten meer dan 50 willekeurige berichten die zijn ontworpen om te leiden tot schadelijk gedrag. De aanwijzingen, geëxtraheerd uit de HarmBench -gegevensset, bestrijken maximaal zes categorieën schadelijk gedrag, waaronder “Cybercriminaliteit, verkeerde informatie, illegale activiteiten en algemene schade. “
Cisco benadrukt dat Deepseek R1 geen van de schadelijke aanwijzingen kon blokkeren. Dus het team concludeert dat het Chinese AI -platform is ‘Zeer vatbaar voor algoritmisch jailbreaking en potentieel misbruik. ” Het gebruik van prompts die zijn ontworpen om ethische en beveiligingsbeperkingen op AI -platforms te omzeilen, wordt “jailbreaking” genoemd. Promptfoo, een AI Cybersecurity Startup, zei ook vorige week dat Deepseek -modellen kwetsbaar zijn voor jailbreaks.
Andere AI -chatbots vormen ook een hoge kwetsbaarheid voor jailbreaken
Dat gezegd hebbende, het is misschien verbaasd om te horen dat andere, meer bekende en gerenommeerde AI-modellen Ook “opscheppen” van een alarmerend hoog ASR -niveau. Het GPT 1.5 Pro -model had een ASR van 86%, terwijl de LLAMA 3.1 405B nog vergevingsgezind is met een ASR van ongeveer 96%. Het top-performer AI-model in dit opzicht was de O1-preview met een ASR van slechts 26%.
‘Ons onderzoek onderstreept de dringende behoefte aan rigoureuze beveiligingsevaluatie in AI -ontwikkeling om ervoor te zorgen dat doorbraken in efficiëntie en redenering niet ten koste van de veiligheid gaan‘Leest het rapport van Cisco.
Dit is niet de enige rode vlag die is ontstaan rond de chatbot van Deepseek. Experts en ambtenaren hebben gewaarschuwd voor het beleid van het bedrijfsbehandeling van het bedrijf. Momenteel gaan alle vastgelegde gebruikersgegevens naar servers in China, waar wetten de lokale overheid toestaan toegang te vragen wanneer ze maar willen. Promptfoo merkte ook het hoge niveau van censuur op voor aanwijzingen met betrekking tot gevoelige onderwerpen voor China. Bovendien dook het eerste data -lek uit Deepseek onlangs op.