Waarom Deepseek de gevaarlijkste AI is die je misschien gebruikt

We zouden graag zeggen dat Deepseek de veiligste en meest ethische AI ​​op de planeet is. Maar na het lezen van het laatste rapport van Appsoc, beginnen we te denken dat George Orwell slechts een paar decennia vrij was. Misschien hadden negentien achtentachtig Twintig-vijfentwintig moeten worden genoemd. Hun bevindingen zijn niet alleen zorgwekkend – ze zijn ronduit chillen. Sommige van Deepseek’s beveiligingsfouten die in hun rapport zijn ontdekt, kun je heroverwegen met behulp van Deepseek, of het nu gaat om zaken of gewoon casual plezier.

Het donkere paard stijgt

Voordat we in de scheuren onder de gepolijste buitenkant van Deepseek duiken, moeten we begrijpen waarom dit AI -model de industrie tot in de kern heeft geschud.

De afgelopen jaren domineerde Openai de AI -ruimte. Google sleutelde al jaren aan AI, maar toen Openai Chatgpt op de massa ontketende, werd het pijnlijk duidelijk hoe ver achter Big Tech echt was.

Toen, uit het niets, arriveerde Deepseek.

Er was geen langzame opbouw. Geen teasers. Slechts een plotselinge verschijning van een gloednieuw AI-model dat met Chatgpt zou kunnen gaan. Gesteund door high-flyer, een Chinees hedgefonds met zakken diep genoeg om enkele miljardairs te laten blozen, kwam Deepseek niet alleen de markt binnen-met zijn laars met stalen-toed, schopte het de deur naar beneden.

Het verblindde de industrie met een model dat chatgpt tegen een fractie van de kosten. In plaats van de traditionele, resource-zware trainingsmethoden die worden gebruikt door OpenAI en Google, hefboomdistillatie van deepseek. In lekentermen leerde het van bestaande AI -uitgangen in plaats van onbewerkte gegevens.

Aidan Gomez, CEO van CoHere, erkende de schittering van deze aanpak en vertelde Business Insider, “Ik denk dat het de strategie van CoChere heeft gevalideerd die we al een tijdje nastreven. Miljarden dollars per jaar uitgeven is niet nodig om toptechnologie te produceren die concurrerend is. “

Met zijn aankomst liet Deepseek een triljoen dollar gat achter in de Amerikaanse technische aandelenmarkt. Hoewel het bedrijf erop staat dat het zijn model heeft opgebouwd met een klein budget, suggereren sommige rapporten dat de werkelijke investering daadwerkelijk in de miljarden kan zijn.

Het open-source model van Deepseek onderscheidt het ook. Het is gratis (voor eindgebruikers), toegankelijk en gemakkelijk gewijzigd. Hoewel concurrenten tot $ 200 per maand in rekening brengen, kost Deepseek vrijwel niets, waardoor het de voor de hand liggende keuze is – of zo lijkt het.

Als iets te mooi lijkt om waar te zijn, is dat meestal. De bevindingen van Appsoc suggereren dat de betaalbaarheid van Deepseek kan zijn met een verborgen kosten – een die niets met geld te maken heeft.

De stagiair uit de hel

Het rapport van Appsoc duikt diep in de technische aspecten van Deepseek’s beveiligingsfouten, maar laten we het technische jargon even overslaan. In plaats daarvan willen we dat je je dit scenario voorstelt.

Stel je voor dat je een stagiair inhuurt die klaar lijkt om een ​​kandidaat te zijn voor werknemer van het jaar – meer nuttig, efficiënt en praktisch gratis. Ze behandelen onderzoek en helpen andere werknemers in uw bedrijf met een klacht. Alles lijkt perfect. Of dat is tenminste hoe het lijkt.

Vervolgens beginnen de scheuren te laten zien. Ze geven klanten valse informatie met verbijsterend vertrouwen. Ze voeren taken uit die buiten hun werkbereik liggen. Het ergste van alles, ze morsen bedrijfsgeheimen aan iedereen die de juiste vragen stelt. Tegen de tijd dat je de schade realiseert, is het te laat. Zou u ooit iemand zo in uw bedrijf vertrouwen?

Vervang die stagiair nu door Deepseek. Het rapport van Appsoc onthult dat Deepseek net zo roekeloos is als deze stagiair uit de hel. Het wordt gemakkelijk misleid in het lekken van gevoelige gegevens, het genereren van malware en het negeren van ethische waarborgen. Het is een AI die niet alleen hallucineert – het stelt uw bedrijf bloot aan zeer reële risico’s met zeer reële gevolgen.

Dus de vraag van een miljoen dollar is: als u zo’n verplichting niet zou vertrouwen in uw kantoor, waarom zou u deze dan in uw systemen laten?

Deepseek? Hah! Meer als diep gebrekkig

Nu u de beveiligingsfouten van Deepseek beter begrijpt, laten we eens kijken naar de meer technische kant van het rapport van Appsoc en waarom u zich zorgen moet maken.

Je hebt waarschijnlijk gehoord van jailbreaken als het gaat om smartphones. Als u denkt dat het jailbreaken van een telefoon riskant is, wordt het in AI ronduit gevaarlijk. Jailbreaking trucs een AI om zijn eigen veiligheidsregels te negeren, waardoor het inhoud kan genereren die het niet zou moeten doen. DeepSeek is 91% van de tijd niet mislukt. Dat betekent dat het kan worden gemanipuleerd om zo ongeveer alles te zeggen of te doen met de juiste prompt.

Ooit gehoord van een snelle injectieaanval? Hackers gebruiken slim geformuleerde ingangen om de AI te misleiden om verborgen informatie te onthullen of ongeautoriseerde acties uit te voeren. Deepseek is 86% van de tijd niet in deze test gefaald. Dit betekent dat als een aanvaller weet wat hij doet, ze Deepseek kunnen misleiden in lekkende gevoelige gegevens, het omzeilen van beperkingen of zelfs het uitvoeren van taken die het nooit zou toestaan. In feite slaagden onderzoekers van Wallarm erin Deepseek te misleiden om zijn eigen interne systeem bloot te leggen.

Dit is waar dingen echt verontrustend worden. Deepseek faalde 93% van de tijd toen hij werd getest op het genereren van malware. Dat betekent dat het zorgwekkend effectief is om gebruikers te helpen schadelijke scripts, virussen en exploits te creëren. Dit is niet alleen een fout – het is een script Kiddie’s droom die uitkomt! Nu kan zowat iedereen en hun oma meteen malware maken.

AI -modellen worden verondersteld waarborgen te hebben tegen het genereren van aanstootgevende, discriminerende of schadelijke inhoud. Deepseek is 68% van de tijd niet in deze beveiligingen gefaald. Dit betekent dat aanvallers het gemakkelijk kunnen manipuleren om giftige, aanstootgevende of regelrechte onethische inhoud te produceren. Zou u een AI zoals deze in uw bedrijf vertrouwen? Stel je de schade voor die het zou kunnen veroorzaken aan de reputatie van uw bedrijf!

Deepseek worstelt ook met wat bekend staat als hallucinaties – een mooie manier om te zeggen dat het informatie fabriceert. De tests van Appsoc onthulden een faalpercentage van 81% op dit gebied. Als u Deepseek om informatie vraagt, alleen om erachter te komen dat het iets volledig heeft verzonnen, kunt u dan blijven vertrouwen op wat er staat?

De echte kicker? 72% storing in de beveiliging van de supply chain. Niemand weet waar de gegevens vandaan komen, en dat is een enorme rode vlag als we er ooit een hebben gezien. Als we niet weten waar Deepseek zijn informatie krijgt om zichzelf te trainen, hoe kunnen we deze dan vertrouwen? Probeer ‘een man op internet’ in je volgende onderzoekspaper te citeren en kijk hoe goed dat is ontvangen.

Volgens voormalig NSA Hacker, Jake Williams, wijst hij erop dat dit een fundamenteel verschil is tussen open-source AI en open-source code. “Het is belangrijk om te onthouden dat Open-source AI (bijv. Deepseek’s R1) iets fundamenteel anders betekent dan open-source code. Met open-source code kunnen we de code controleren en kwetsbaarheden identificeren. Met open-source AI kunnen we zoiets niet doen. Er zijn ook zeer reële zorgen over de supply chain, R1 is vrij eenvoudig te jailbreaken en het heeft veel minder vangrails dan andere commerciële modellen. “

De implicaties voor uw bedrijf

Deepseek is een aantrekkelijke AI -optie, vooral voor individuen of MKB -bedrijven die mogelijk niet het budget hebben voor duurdere AI -modellen. Het is goedkope, open-source en presteert bijna net zo goed als grote concurrenten zoals Openai’s Chatgpt en Google’s Gemini. Maar voordat uw bedrijf zich haast om het te adopteren, moet u uzelf een kritische vraag stellen: is het echt het risico waard?

Het antwoord, gebaseerd op het rapport, is een harde nee. Deepseek is een tikkende tijdbom vol met juridische, veiligheid en financiële verplichtingen die wachten om te exploderen.

Een van de grootste rode vlaggen is de kwestie van wettelijke verantwoordelijkheid. In tegenstelling tot Openai, Microsoft en Google, die juridische bescherming (tot een bepaald punt) bieden via hun algemene voorwaarden, vrijmaakt Deepseek zijn gebruikers niet. Dat betekent dat als er iets misgaat – als het gevoelige gegevens lekt, aanstootgevende inhoud genereert, malware creëert of voorschriften schendt – bent u aan de haak, niet Deepseek.

De faalpercentages met hoge hallucinatie maken ook deepseek onbetrouwbaar in situaties die om feitelijke nauwkeurigheid vragen. Dit omvat financiële analyse, juridische richtlijnen of medische aanvragen. Het faalpercentage in supply chain -risico’s roept ook bezorgdheid uit over gegevensintegriteit. Als bedrijven niet weten waar de trainingsgegevens van Deepseek vandaan komen, moeten ze het dan echt vertrouwen? Dit kan rechtszaken, boetes en een PR -ramp betekenen. Ben je bereid om die aan te nemen?

Het wettelijke en regelgevende landschap rond de Deepseek is ook de moeite waard om kennis te nemen van. Sommige landen en regeringen hebben het gebruik ervan al verboden of beperkt. Of dit wordt aangedreven door politiek of echte veiligheidsproblemen, doet er niet echt toe – het punt is dat deze beveiligingsfouten de toekomst van Deepseek onzeker maken. Als uw bedrijf besluit zijn activiteiten rond Deepseek op te bouwen, wat gebeurt er dan als de regering van uw land besluit het te blokkeren? Wat als er nieuwe wettelijke wetten zijn die het gebruik ervan illegaal of zwaar beperkt maken?

Dit betekent dat als uw bedrijf vandaag op Deepseek vertrouwt, het heel goed kan worden gedwongen om het morgen te verlaten. Dit zal leiden tot verstoringen en verspilde middelen die u nogal wat kunnen kosten.

Andrew Hoog, een beveiligingsexpert bij NowSecure, vond ook beveiligingsfouten in de IOS -app van deepseek die geen verzonden gegevens gecodeert. Tot overmaat van ramp slaat het gegevens onecurly op en openen de deur naar diefstal van referenties. Sprekend met Brian Krebs op Krebsonsecurity, Hoog stelde het botweg, “Als we mensen zien vertonen echt simplistische coderingsfouten, terwijl je dieper graaft, zijn er meestal veel meer problemen. Er is vrijwel geen prioriteit rond beveiliging of privacy. ”

De China Connection

Alsof dit niet genoeg was, geven rapporten aan dat Deepseek verborgen code kan bevatten die gebruikersgegevens terug naar China verzendt. Ivan Tsarynny, CEO van Feroot Security, heeft gewaarschuwd, “Onze persoonlijke informatie wordt naar China gestuurd, er is geen ontkenning en de Deepseek -tool verzamelt alles waar Amerikaanse gebruikers zich mee verbinden.”

Beveiligingsbedrijven hebben directe verbanden tussen deepseek en de Chinese overheidsservers ontdekt. Dit roept de vraag op: controleert iemand gebruikersgegevens? Zouden slechte acteurs eigen informatie kunnen overhevelen? Bedrijven die Deepseek gebruiken, riskeren een onbedoelde schat aan gegevens te worden die gevoelige informatie voedt voor buitenlandse entiteiten.

Adrianus Warmenhoven, een cybersecurity -expert bij Nordvpn, wijst ons op het beleid van Deepseek over gegevensverzameling, “Dit roept bezorgdheid uit vanwege het verzamelen van gegevens-variërend van gebruikers-shared informatie tot gegevens van externe bronnen-die onder de potentiële risico’s valt die verband houden met het opslaan van dergelijke gegevens in een rechtsgebied met verschillende privacy- en beveiligingsnormen.”

Het is ook geen verrassing dat Deepseek wordt gevormd door De regels en wetten van China rondom inhoud. Onderzoekers hebben ontdekt dat Deepseek -censoren politiek gevoelige onderwerpen censoren en reacties genereert die zijn afgestemd op Chinese staatsverhalen. Dit rapport van de New York Times citeert meerdere onderzoekers die hebben ontdekt dat Deepseek niet alleen een potentieel beveiligingsrisico is; Het kan een hulpmiddel zijn voor propaganda.

Onderzoekers ontdekten dat 80% van de tijd de antwoorden van Deepseek de officiële opvattingen van China over bepaalde onderwerpen weerspiegelden. Toen politiek taboe -vragen in China werden gesteld, weigerde het te reageren, vermeed het onderwerp en bracht de antwoorden af.

Conclusie

AI moet als een actief dienen, geen aansprakelijkheid, zoals elk ander hulpmiddel. Hoewel Deepseek geavanceerde mogelijkheden biedt tegen een fractie van de prijs, vergeleken de zijn concurrenten, kunnen de reële kosten, zoals gegevensblootstelling, nalevingsrisico’s en geopolitieke verwikkelingen, veel groter zijn.

Misschien is het meest verontrustende deel van dit alles dat Deepseek’s beveiligingsfouten geen potentiële scenario’s zijn. Een eenvoudige software -update zal deze storingen niet oplossen. Dit zijn kernproblemen die Deepseek een zeer reële aansprakelijkheid maken voor bedrijven die ervoor kiezen om het te gebruiken. We hebben het over een AI-model dat kan worden bedrogen, geëxploiteerd, gemanipuleerd en mogelijk kan worden gebruikt voor cybercriminaliteit, waardoor bedrijven worden blootgesteld aan zeer ernstige real-life juridische en financiële gevolgen.

Dus voordat u besluit Deepseek te integreren in uw bedrijfsactiviteiten, moet u de risico’s tegen de beloningen afwegen. We hebben het niet alleen over het kiezen van een AI -model zoals je zou kiezen voor een verkoper voor de printerpapier van je kantoor, het gaat erom te beslissen of je al dan niet gokt met de beveiliging, reputatie en de toekomst van je bedrijf. Aan het einde van de dag kan Deepseek u een hoop geld besparen in vergelijking met andere AI -modellen, maar de werkelijke kosten kunnen veel hoger zijn. Ze zeggen tenslotte dat er niet zoiets bestaat als een gratis lunch.

Thijs Van der Does