Het is meer dan twee jaar geleden dat de term ‘generatieve AI’ in het lexicon van de gewone man verscheen, en we zijn nog steeds aan het uitzoeken hoe we deze technologie kunnen reguleren. We hebben in de loop der jaren verschillende wetsvoorstellen gezien, maar er zijn nog geen officiële wetten. Welnu, de VS hebben zojuist een nieuw AI-veiligheidsbeoordelingsbureau opgericht op het ministerie van Handel, en dit zou kunnen helpen bij het reguleren van AI.
Dit nieuwe kantoor zal proberen te doen wat de meeste wetsvoorstellen rond AI beogen te doen. Het zal de AI-veiligheidsregels aanscherpen en er tegelijkertijd voor zorgen dat de VS zijn positie als AI-wereldleider behouden. Op dit moment zijn veel van ’s werelds grootste AI-bedrijven gevestigd in Californië, dus de Verenigde Staten hebben een beetje een voordeel. Dit is ook de reden waarom goede regelgeving zo belangrijk is.
Het nieuwe AI Safety Review-kantoor zal een AI-veiligheidstake-home-test aanbieden
Er kwam een nieuw wetsvoorstel aan de oppervlakte genaamd de Preserving American Dominance in AI Act van 2024. Het werd gesponsord door senator Mitt Rommney en mede gesponsord door Jerry Moran, R-Kan., Angus King, I-Maine., Jack Reed, DR .I., en Maggie Hassan, DN.H. Deze wet vereist dat het nieuwe kantoor een veiligheidstest voor AI-modelontwikkelaars opzet. De test helpt eventuele kritische risico’s van een model aan te geven voordat het bedrijf het implementeert.
Een dergelijke test zou een goed idee zijn, omdat het voor bedrijven gemakkelijker wordt om aan overheidsnormen te voldoen. Andere wetsvoorstellen die AI proberen te beheersen, vertellen bedrijven feitelijk: “Maak uw AI niet gevaarlijk!”, maar er is geen duidelijke indicatie over wat dat betekent. Dit komt omdat de grens tussen veilige en gevaarlijke AI nog steeds behoorlijk vaag is. Als deze test echter een bepaalde norm vaststelt waaraan het model moet voldoen om te slagen, dan is het gemakkelijker om te weten of het model in strijd is met de regelgeving.
De wet vereist ook dat het bureau samenwerkt met het AI Safety Institute om hulp te bieden aan AI-bedrijven. Dit soort synergie zou van groot belang kunnen zijn voor de ontwikkeling van AI in de VS. Bedrijven die Frontier AI-modellen ontwikkelen, zullen hulp krijgen bij het samenwerken tegen de gebieden waar AI het gevaarlijkst zou kunnen blijken. We hebben het over biologische, chemische, nucleaire, radiologische en cyberrisico’s. AI zal ongetwijfeld industrieën raken die met deze gebieden te maken hebben.
90 dagen, en de hamer komt neer
Net als bij andere wet- en regelgeving zijn er zware gevolgen verbonden aan het niet naleven van de regels. Als het in de wet zou worden opgenomen, zouden AI-ontwikkelaars negentig dagen de tijd hebben om het bureau de waarborgen van hun model te laten beoordelen. Wie zich hier niet aan houdt, kan ook strafrechtelijk vervolgd worden. Deze kunnen bestaan uit maximaal tien jaar gevangenisstraf en civiele aanklachten tot maximaal $ 1 miljoen per dag.
Dit kan echter afhankelijk van het bedrijf schalen. Het lijkt erop dat $1 miljoen per dag gereserveerd zou worden voor bedrijven van miljarden/biljoenen dollars zoals Google, Microsoft, Meta, enz. Een klein bedrijf dat een schattige kleine AI-app maakt, zal niet zo hard getroffen worden.