Google Open Sources Magika: AI-aangedreven hulpmiddel voor bestandsidentificatie

Google heeft aangekondigd dat het open-sourcing Magika is, een door kunstmatige intelligentie (AI) aangedreven tool om bestandstypen te identificeren, om verdedigers te helpen binaire en tekstuele bestandstypen nauwkeurig te detecteren.

“Magika presteert beter dan conventionele bestandsidentificatiemethoden en biedt een algehele nauwkeurigheidsverbetering van 30% en tot 95% hogere precisie bij traditioneel moeilijk te identificeren, maar potentieel problematische inhoud zoals VBA, JavaScript en Powershell”, aldus het bedrijf.

De software maakt gebruik van een ‘aangepast, sterk geoptimaliseerd deep-learning model’ dat de nauwkeurige identificatie van bestandstypen binnen milliseconden mogelijk maakt. Magika implementeert inferentiefuncties met behulp van de Open Neural Network Exchange (ONNX).

Google zegt dat het Magika intern op grote schaal gebruikt om de veiligheid van gebruikers te verbeteren door Gmail-, Drive- en Safe Browsing-bestanden naar de juiste scanners voor beveiliging en inhoudsbeleid te sturen.

In november 2023 onthulde de technologiegigant RETVec (afkorting van Resilient and Efficient Text Vectorizer), een meertalig tekstverwerkingsmodel om potentieel schadelijke inhoud zoals spam en kwaadaardige e-mails in Gmail te detecteren.

Te midden van een voortdurend debat over de risico’s van de zich snel ontwikkelende technologie en het misbruik ervan door nationale actoren geassocieerd met Rusland, China, Iran en Noord-Korea om hun hackinspanningen te stimuleren, zei Google dat het op grote schaal inzetten van AI de digitale veiligheid kan versterken en ‘kantelen’. het cyberbeveiligingsevenwicht van aanvallers naar verdedigers.”

Google Open Source Magika

Het benadrukte ook de noodzaak van een evenwichtige regelgevingsaanpak voor het gebruik en de adoptie van AI om een ​​toekomst te vermijden waarin aanvallers kunnen innoveren, maar verdedigers worden tegengehouden vanwege keuzes op het gebied van AI-beheer.

“AI stelt beveiligingsprofessionals en verdedigers in staat hun werk op het gebied van bedreigingsdetectie, malware-analyse, kwetsbaarheidsdetectie, probleemoplossing en incidentrespons op te schalen”, merkten Phil Venables en Royal Hansen van de technologiegigant op. “AI biedt de beste mogelijkheid om het verdedigersdilemma te doorbreken en de cyberspace te laten kantelen om verdedigers een beslissend voordeel te geven ten opzichte van aanvallers.”

Er zijn ook zorgen geuit over het gebruik van webgegevens door generatieve AI-modellen voor trainingsdoeleinden, waartoe ook persoonlijke gegevens kunnen behoren.

“Als u niet weet waarvoor uw model zal worden gebruikt, hoe kunt u er dan voor zorgen dat het downstream-gebruik de gegevensbescherming en de rechten en vrijheden van mensen respecteert?”, merkte het Britse Information Commissioner’s Office (ICO) vorige maand op.

Bovendien heeft nieuw onderzoek aangetoond dat grote taalmodellen kunnen functioneren als ‘slapende agenten’ die ogenschijnlijk onschadelijk kunnen zijn, maar kunnen worden geprogrammeerd om bedrieglijk of kwaadaardig gedrag te vertonen wanneer aan specifieke criteria wordt voldaan of speciale instructies worden gegeven.

“Dergelijk achterdeurgedrag kan persistent worden gemaakt, zodat het niet wordt verwijderd door standaard veiligheidstrainingstechnieken, waaronder verfijnde afstemming onder toezicht, versterkend leren en vijandige training (het uitlokken van onveilig gedrag en vervolgens trainen om het te verwijderen), zeiden onderzoekers van AI-startup Anthropic. in de studie.


Thijs Van der Does