Deepseek AI bood kritieke Bioweapons -gegevens aan in de tests van Anthropic

Naarmate de tijd verstrijkt, hebben onderzoekers meer duidelijkheid kunnen krijgen over de voor- en nadelen van Deepseek AI -modellen. Het Chinese AI -bedrijf brak in het segment en veroorzaakte crashes in de aandelen van Nvidia en andere grote namen dankzij de hoge prestaties en schijnbare lage kosten. Meer experts, dit keer van antropisch, waarschuwen echter hoe eenvoudig het is om Deepseek AI informatie te bieden die mogelijk gevaarlijk is voor de nationale veiligheid.

De veiligheidstests van Anthropic toonden aan dat Deepseek AI geen schadelijke aanwijzingen blokkeert

Anthropic, het moederbedrijf van Claude AI, is een van de leidende namen in de industrie. De modellen van het bedrijf zullen naar verluidt de aankomende AI-Alexa van Amazon aandrijven. Anthropic test ook routinematig verschillende AI -modellen om te bepalen hoe gevoelig ze zijn voor ‘jailbreaking’. Dat wil zeggen, het genereren van schadelijke inhoud door beveiligingsbarrières te omzeilen.

Dario Amodei, CEO van Anthropic, uitte zijn bezorgdheid over het gemak waarmee Deepseek zeldzame informatie genereert met betrekking tot biologische wapens. De directeur zei dat de prestaties van Deepseek waren “Het ergste van eigenlijk elk model dat we ooit hadden getest. ” Hij had het niet over prestaties in benchmarks, waar de modellen van het Chinese bedrijf zeer efficiënt zijn. Hij verwees naar de prestaties van de AI -modellen bij het blokkeren van schadelijke aanwijzingen.

De tests toonden aan dat Deepseek “had absoluut geen enkele blokken tegen het genereren van deze informatie. ” De biowapons-gerelateerde gegevens werden beschouwd als zeldzaam omdat deze niet beschikbaar was op Google of in studieboeken. Dat gezegd hebbende, Amodei zei niet naar welk diepeek AI -model hij verwees. Het is echter vrij waarschijnlijk dat hij het heeft over R1, het redeneringsgerichte model.

De tests van Cisco leverden vergelijkbare resultaten op

In feite heeft het Cisco -team recent vergelijkbare resultaten verkregen in een andere reeks tests. Het Deepseek R1 -model vertoonde een aanvalsucect (ASR) van 100%. Dit betekent dat het niet in staat was om geteste schadelijke aanwijzingen te blokkeren. Deze prompts zijn ontworpen om potentieel bruikbare uitgangen te genereren voor “Cybercriminaliteit, verkeerde informatie, illegale activiteiten en algemene schade. ” De tests van Cisco leverden echter ook zorgwekkende resultaten op voor andere bekende AI-platforms. Het GPT 1,5 Pro -model had een ASR van 86%, terwijl meta LLAMA 3.1 405B een 96% ASR had.

Amodei beschouwt deepseek -modellen nog niet alleen als ‘Letterlijk gevaarlijk. ” Hij dringt er echter bij het ontwikkelingsteam op aan “Neem deze AI -veiligheidsoverwegingen serieus. ” Hij ziet ook al Deepseek als een van de belangrijkste concurrenten in het kunstmatige intelligentiesegment.

Thijs Van der Does