Veel technologieleiders zoals Sam Altman sluiten zich aan bij de federale AI-veiligheidsraad

De CEO's van verschillende toonaangevende technologiebedrijven treden toe tot de Artificial Intelligence Safety and Security Board van de Amerikaanse overheid. OpenAI's CEO Sam Altman, Microsoft-chef Satya Nadella en Alphabet-CEO Sundar Pichai zijn enkele van deze technologieleiders. De nieuw opgerichte federale adviesraad zal zich richten op het veilige gebruik van AI binnen de kritieke infrastructuur van de Verenigde Staten.

Het AI-bestuur gaat de overheid adviseren over de veilige inzet van AI in kritische infrastructuur

Het nieuw opgerichte federale AI-bestuur zal samenwerken met en advies geven aan het ministerie van Binnenlandse Veiligheid. Hun belangrijkste focus zal liggen op de veilige inzet van kunstmatige intelligentie binnen de kritieke infrastructuur van het land. Ze zullen veiligheidssystemen creëren om de economie, de medische zorg en andere grote industrieën te beschermen tegen alle bedreigingen van AI. Bovendien zal het bestuur mogelijke schade door het gebruik van kunstmatige intelligentie in het elektriciteitsnet en transport voorkomen.

NVIDIA's CEO Jensen Huang is ook een van de twintig technologie- en bedrijfsleiders die toetreden tot de federale AI-veiligheidsraad. Ook wordt bevestigd dat Delta Air Line-topman Ed Bastian en Kathy Warden van Northrop Grumman deel gaan uitmaken van de raad van bestuur. Dat meldt de Wall Street Journal dat het federale AI-bestuur ook academici en leiders op het gebied van de burgerrechten zal omvatten.

De federale AI-veiligheidsraad werd vorig jaar aangekondigd door de regering-Biden

De Artificial Intelligence Safety and Security Board of AISSB werd vorig jaar aangekondigd door de regering-Biden. Het maakt deel uit van het streven van de overheid om verschillende aspecten van kritieke infrastructuur te beschermen tegen AI-bedreigingen. Het vereist dat makers van de krachtigste AI-systemen zoals OpenAI hun veiligheidsresultaten delen, naast andere kritieke informatie.

Deze bedrijven zijn verplicht deze resultaten te verstrekken voordat het AI-model voor het publiek beschikbaar wordt gesteld. Dit helpt de snelheid te verminderen waarmee de makers halfbakken en potentieel problematische machine learning-producten uitbrengen. De Wall Street Journal voegt eraan toe dat de leden van de federale veiligheidsraad voor kunstmatige intelligentie in mei hun eerste bijeenkomst zullen houden. Bovendien wordt van hen verwacht dat zij elk kwartaal van het jaar bijeenkomen.

Thijs Van der Does