Google Gemini is gebruikt om AI Deepfake -terrorisme te genereren

De massificatie van AI-aangedreven diensten heeft de deur geopend voor talloze mogelijkheden op vrijwel elk gebied van de technische industrie en de consumentenmarkt. Van het eenvoudig bewerken van een afbeelding tot het samenvatten van lange documenten, kunstmatige intelligentie maakt het gewoon eenvoudiger. Malicious Actors hebben echter ook toegang tot deze technologie. In een recent rapport onthulde Google dat de AI -tools zijn gebruikt om deperrorisme -inhoud te genereren.

In Australië zijn grote technologiebedrijven verplicht om periodiek rapporten in te dienen over hun schade-minimisatie-inspanningen met betrekking tot het gebruik van hun ontwikkelingen aan de autoriteiten. De Australian Esafety Commission is verantwoordelijk voor het ontvangen en analyseren van deze rapporten. Herhaalde schendingen van de wet stellen bedrijven bloot aan boetes of potentiële sancties.

Google onthult dat Gemini deepfake terrorisme en kindermishandeling heeft gegenereerd

Het nieuwste beveiligingsrapport van Google omvat de periode van april 2023 tot februari 2024. Volgens de Australian Agency was de technologie van de Mountain View Giant verantwoordelijk voor het genereren van AI Deepfake Terrorism Content. Bovendien vermeldt het rapport van Google het gebruik van Gemini om materiaal voor kindermishandeling te genereren.

Dit onderstreept hoe cruciaal het is voor bedrijven die AI -producten ontwikkelen om in te bouwen en de werkzaamheid van beveiligingen te testen om te voorkomen dat dit type materiaal wordt gegenereerd‘Zei Julie Inman, Esafety Commissioner Julie Inman Grant.

Google zegt dat het 258 rapporten heeft ontvangen van gevallen van AI Deepfake -inhoud met betrekking tot terrorisme of gewelddadig extremisme. Er zijn ook 86 casusrapporten van slechte actoren die exploitatie of misbruikmateriaal van kinderen genereren met Gemini. Google is strenger in het verwijderen van het exploitatiemateriaal van kinderen. Het bedrijf maakt gebruik van een hatch-matching-systeem om dergelijke afbeeldingen te detecteren en zo snel mogelijk te verwijderen. Google past de technologie echter niet toe op extremisme-gerelateerde inhoud.

Een van de belangrijkste doelen van toezichthouders met betrekking tot kunstmatige intelligentie is dat bedrijven strengere schilden vestigen om het creëren van dit type materiaal te voorkomen. De komst van Chatgpt in 2022 bracht de eerste zorgen in dit opzicht op. Jaren later lijkt het er echter op dat het probleem nog steeds aanwezig is, hoewel misschien in mindere mate.

De Australische commissie heeft Telegram al bestraft en x

De Esafety Commission prijst Google voor zijn transparantie bij het onthullen van het kwaadaardige gebruik dat sommige criminele acteurs zijn AI -tools maken. De Australian Esafety Commission noemde het rapport van Google “World-First Insight. ” Andere bedrijven hebben geen gunstige woorden van het bureau gehad. Telegram en X (FKA Twitter) ontvingen boetes vanwege tekortkomingen in hun rapporten.

Thijs Van der Does