Taiwan verbiedt deepseek AI over nationale veiligheidsproblemen, onder verwijzing naar gegevenslekrisico’s

Taiwan is het nieuwste land geworden dat overheidsinstanties verbiedt om het Chinese Startup Deepseek’s Artificial Intelligence (AI) -platform te gebruiken, onder verwijzing naar beveiligingsrisico’s.

“Overheidsinstanties en kritieke infrastructuur mogen de Deepseek niet gebruiken, omdat het de nationale informatiebeveiliging in gevaar brengt”, aldus een verklaring vrijgegeven door Taiwan’s Ministry of Digital Affairs, per radiofree Azië.

“Deepseek AI-service is een Chinees product. De werking betreft grensoverschrijdende transmissie en informatielekkage en andere zorgen over informatiebeveiliging.”

De Chinese oorsprong van Deepseek heeft de autoriteiten uit verschillende landen ertoe aangezet om te kijken naar het gebruik van persoonlijke gegevens door de dienst. Vorige week werd het geblokkeerd in Italië, onder verwijzing naar een gebrek aan informatie over de praktijken van de gegevensverwerking. Verschillende bedrijven hebben ook de toegang tot de chatbot verboden met vergelijkbare risico’s.

De chatbot heeft de afgelopen weken veel van de reguliere aandacht getrokken voor het feit dat het open source is en net zo in staat is als andere huidige toonaangevende modellen, maar gebouwd tegen een fractie van de kosten van zijn collega’s.

Maar de grote taalmodellen (LLMS) die het platform aandrijven, zijn ook vatbaar gevonden voor verschillende jailbreaktechnieken, een aanhoudende zorg in dergelijke producten, en niet te vergeten de aandacht te vestigen op het censureren van reacties op onderwerpen die door de Chinese overheid worden geacht.

De populariteit van Deepseek heeft er ook toe geleid dat het het doelwit is van “grootschalige kwaadaardige aanvallen”, waarbij NSFOCUS onthulde dat het drie golven van gedistribueerde Denial-of-Service (DDOS) -aanvallen detecteerde gericht op zijn API-interface tussen 25 en 27 januari, 2025.

“De gemiddelde aanvalsduur was 35 minuten,” zei het. “Aanvalmethoden omvatten voornamelijk NTP -reflectieaanval en memcached reflectieaanval.”

Het zei verder dat het Deepseek Chatbot-systeem tweemaal was gericht door DDoS-aanvallen op 20 januari, de dag waarop het zijn redeneermodel Deepseek-R1 lanceerde en 25 gemiddeld rond een uur met methoden zoals NTP-reflectieaanval en SSDP-reflectieaanval.

De aanhoudende activiteit is voornamelijk afkomstig van de Verenigde Staten, het Verenigd Koninkrijk en Australië, voegde het bedreigingsinlichtingenbedrijf eraan toe en beschreef het als een “goed geplande en georganiseerde aanval”.

Malicious Actors hebben ook gekapitaliseerd op de buzz rond Deepseek om neppakketten te publiceren op de Python Package Index (PYPI) -repository die zijn ontworpen om gevoelige informatie van ontwikkelaarssystemen te stelen. In een ironische wending zijn er aanwijzingen dat het Python -script is geschreven met behulp van een AI -assistent.

De pakketten, genaamd Deepseek en Deepseekai, vermomd als een Python API -klant voor Deepseek en werden minstens 222 keer gedownload voordat ze werden afgenomen op 29 januari 2025. Een meerderheid van de downloads kwam uit de VS, China, Rusland, Hong Kong en Duitsland.

“Functies die in deze pakketten worden gebruikt, zijn ontworpen om gebruikers- en computergegevens te verzamelen en omgevingsvariabelen te stelen,” zei Positive Technologies, de Russische cybersecuritybedrijf. “De auteur van de twee pakketten gebruikte Pipedream, een integratieplatform voor ontwikkelaars, als de command-and-control server die gestolen gegevens ontvangt.”

De ontwikkeling komt wanneer de Artificial Intelligence Act van kracht werd in de Europese Unie vanaf 2 februari 2025, waarbij AI-aanvragen en systemen worden verbannen die een onaanvaardbaar risico vormen en een hoog risico-toepassingen voor specifieke wettelijke vereisten vormen.

In een gerelateerde stap heeft de Britse regering een nieuwe AI -praktijkcode aangekondigd die tot doel heeft AI -systemen te beveiligen tegen hacking en sabotage via methoden die beveiligingsrisico’s van gegevensvergiftiging, modelverdeling en indirecte snelle injectie omvatten, en ervoor zorgen dat ze zijn op een veilige manier ontwikkeld.

Meta heeft van zijn kant zijn Frontier AI -framework geschetst en heeft opgemerkt dat het de ontwikkeling van AI -modellen zal stoppen die worden beoordeeld als een kritieke risicodrempel te hebben bereikt en niet kan worden beperkt. Sommige van de cybersecurity -gerelateerde scenario’s zijn benadrukt, zijn onder meer –

  • Geautomatiseerd end-to-end compromis van een best-practice-beschermde bedrijfsschaalomgeving (bijv. Volledig gepatcht, MFA-beschermd)
  • Geautomatiseerde ontdekking en betrouwbare exploitatie van kritische nul-day kwetsbaarheden in momenteel populaire software voor beveiligings-beste practices voordat verdedigers ze kunnen vinden en patchen
  • Geautomatiseerde end-to-end zwendelstromen (bijv. Romantiek die aka varkensafscheiding blijkt) die kunnen leiden tot wijdverspreide economische schade aan individuen of bedrijven

Het risico dat AI -systemen voor kwaadwillende doelen kunnen worden bewapend, is niet theoretisch. Vorige week onthulde Google’s Threat Intelligence Group (GTIG) dat meer dan 57 verschillende dreigingsactoren met banden met China, Iran, Noord -Korea en Rusland hebben geprobeerd Gemini te gebruiken om hun activiteiten mogelijk te maken en te schalen.

Dreigingsactoren zijn ook geobserveerd om AI -modellen te jailbreaken in een poging hun veiligheid en ethische controles te omzeilen. Een soort tegenstanders, het is ontworpen om een ​​model op te zetten om een ​​output te produceren die expliciet is getraind, zoals het maken van malware of het spellen van instructies voor het maken van een bom.

De voortdurende zorgen van jailbreak -aanvallen hebben AI -bedrijf Anthropic ertoe gebracht een nieuwe verdedigingslinie te bedenken genaamd constitutionele classificaties waarvan het zegt dat het modellen kan beschermen tegen universele jailbreaks.

“Deze constitutionele classificaties zijn input- en uitvoerclassificaties die zijn getraind op synthetisch gegenereerde gegevens die de overgrote meerderheid van de jailbreaks filteren met minimale overrefusies en zonder een grote rekenoverhead te maken,” zei het bedrijf maandag.

Thijs Van der Does