AI kan worden gebruikt voor terroristische aanvallen, waarschuwt voormalig Google CEO

De kunstmatige intelligentie -revolutie heeft veel diensten en hulpmiddelen gebracht die uw dagelijkse leven gemakkelijker maken op meerdere gebieden, of het nu werk, onderwijs of entertainment is. Het heeft ook de ontwikkeling van de technische industrie in korte tijd met sprongen met sprongen gedreven. Sommigen, zoals Eric Schmidt, zijn echter bang voor de slechtste scenario’s als AI in verkeerde handen valt.

De diepe inval in de AI -industrie veroorzaakte niet alleen een ernstige impact op Wall Street, waardoor de aandelen van Nvidia en andere grote namen crashen. Naarmate de weken voorbijgingen, waarschuwden meer experts en Amerikaanse functionarissen voor de potentiële risico’s van het platform. Ze noemden voornamelijk bedreigingen tegen privacy van gebruikersgegevens en nationale veiligheid. Dat gezegd hebbende, de zorgen van de voormalige Google CEO gaan veel verder.

Eric Schmidt onthult zijn grootste angst dat AI wordt gebruikt door slechte acteurs

Eric Schmidt deelde zijn perspectief op een onderwerp dat velen vaak over het hoofd zien. ‘De echte angsten die ik heb zijn niet degenen die de meeste mensen over AI praten – ik praat over extreem risico‘Zei hij tegen BBC. De meeste mensen die hun bezorgdheid hebben geuit over het gebruik van AI, hebben naar het risico van het gebruik van Chinese platforms verwezen. Schmidt overweegt echter zelfs het extreme geval van kunstmatige intelligentie die terroristische aanvallen faciliteert.

Hij zei dat landen als “Noord -Korea, of Iran, of zelfs Rusland‘Zou op de slechtst mogelijke manier kunnen profiteren van de technologie. Schmidt vermeldt de mogelijkheid van ‘Een slechte biologische aanval van een slechte persoon.‘Hierdoor verwijst hij naar de potentiële ontwikkeling van biologische wapens die worden bijgestaan ​​door kunstmatige intelligentie. ‘Ik maak me altijd zorgen over het scenario ‘Osama Bin Laden’, waar je een echt slechte persoon hebt die een aspect van ons moderne leven overneemt en het gebruikt om onschuldige mensen te schaden‘Voegde hij eraan toe.

AI -platforms zijn nog steeds niet effectief in het blokkeren van schadelijke aanwijzingen

Grote AI -platforms hebben “barrières” vastgesteld tegen schadelijke aanwijzingen, waaronder het blokkeren van potentieel gevaarlijke uitgangen. Recente tests van Anthropic en Cisco toonden echter aan dat de huidige schilden zeer niet effectief zijn. Het slechtste AI -platform in dit opzicht was Deepseek, dat een aanvalsucces (ASR) van 100%scoorde. Dat wil zeggen, het was niet in staat om gelijkmatige aanwijzingen te blokkeren met betrekking tot de bezorgdheid van Schmidt: biologische wapens. Meer zorgen, modellen zoals GPT 1.5 Pro en Lama 3.1 405B scoorden ook redelijk hoge ASR -tarieven (respectievelijk 86% en 96%).

De voormalige CEO van Google zei dat hij voorschriften voor AI -bedrijven ondersteunt. Hij waarschuwde echter ook dat overmatige regelgeving innovatie in het segment zou kunnen beïnvloeden. Dus dringt hij aan op het vinden van een evenwicht tussen ontwikkeling en beveiliging. Hij ondersteunde ook exportcontroles op AI -hardware naar andere landen. Voormalig president Joe Biden heeft de maatregel geïmplementeerd voordat hij het kantoor verliet om te proberen de voortgang van rivalen in het AI -veld te vertragen. Het is echter nog steeds mogelijk dat Donald Trump dit bevel zou kunnen omkeren om te voorkomen dat buitenlandse AI -bedrijven andere leveranciers zoeken.

Ondertussen is Google onlangs van koers veranderd over zijn visie op AI. Het bedrijf heeft zijn beleid bijgewerkt dat de deur wordt geopend om zijn AI -technologie aan te bieden voor de ontwikkeling van wapens en surveillance.

Thijs Van der Does