Wat je moet weten

Regelgeving, regelgeving, regelgeving! Dit is het woord dat al maanden rond het onderwerp AI gonst, en we wachten nog steeds op het optreden van de overheid en het opstellen van enkele regels. Volgens een nieuw rapport begint het Witte Huis AI hard aan te pakken en de basis te leggen voor regelgeving.

Op dit moment hebben grote AI-bedrijven een hoop macht in handen, omdat ze technologie ontwikkelen die een grote impact kan hebben op de technologie-industrie. Sinds de generatieve AI-explosie proberen overheidsinstanties manieren te vinden om AI veilig te houden. Hoe graag we Google, Microsoft en andere bedrijven ook mogen, we vertrouwen er niet op dat deze winstgedreven bedrijven echt verantwoordelijk omgaan met AI. Dit is dus de reden waarom regulering vanaf nu de hoofdzaak is.

Het Witte Huis introduceert enkele regels om AI te reguleren

Maandag onthulde de regering-Biden een nieuw uitvoeringsbesluit om AI-bedrijven te reguleren die de volgende generatie AI ontwikkelen. Dit uitvoeringsbesluit “…komt op voor consumenten en werknemers, bevordert innovatie en concurrentie, bevordert het Amerikaanse leiderschap over de hele wereld en net als alle uitvoeringsbesluiten heeft dit de kracht van wet.”, zei een hoge regeringsfunctionaris.

Het punt is dat AI een grote impact kan hebben op consumenten, de nationale veiligheid en de gezondheid en het welzijn van miljoenen mensen, zo niet miljarden. Dit bevel zal fungeren als de eerste reeks regels en richtlijnen om ervoor te zorgen dat AI niet uit de hand loopt. Deze zijn een beetje vaag, omdat we allemaal nog steeds een idee krijgen van wat AI kan doen en van de soorten voorzorgsmaatregelen die we moeten treffen.

Wat verwacht de EO van bedrijven?

Laten we eens kijken wat deze order deze bedrijven zal laten doen.

Rapporteer aan de federale overheid

Dus als hun modellen het potentieel hebben om de nationale veiligheid, de nationale economische veiligheid of de nationale openbare veiligheid en gezondheid te beïnvloeden (wat ze hoogstwaarschijnlijk doen), moeten ze de federale overheid informeren voordat ze ze trainen. Dit geeft de overheid inzicht in wat het bedrijf doet.

Deel rode teamgegevens

Vervolgens moeten ze al hun testresultaten van het rode team delen. Als je niet weet wat rode teams zijn: het zijn in wezen teams van mensen die de taak hebben om AI-chatbots schadelijke of aanstootgevende dingen te laten zeggen. Ze dwingen de chatbots om deze dingen te zeggen, zodat ze weten waar ze kunnen verbeteren.

De federale overheid zal in de gaten willen houden wat voor schadelijke reacties deze chatbots kunnen geven. Op deze manier kan het een beter idee krijgen van hoe slecht hun reacties kunnen zijn.

Deel trainingsruns

Ook moeten de bedrijven de trainingsruns voor hun LLM’s delen. Dit geeft de federale overheid een tijdlijn die laat zien hoe de tests in de loop van de tijd zijn verlopen. De trainingsronde geeft de overheidsfunctionarissen een idee van het verloop van de training.

Zoals u zich kunt voorstellen, zal de overheid actie ondernemen als de resultaten niet bevallen of waar zij hun AI op trainen. Dit alles is nodig voordat het bedrijf het AI-model beschikbaar maakt voor het publiek. Als het AI-model een gevaarlijk potentieel heeft, en het wordt vrijgegeven aan het publiek, dan is er geen weg meer terug.

Wat zijn de uitzonderingen?

Dit uitvoeringsbesluit richt zich op een breed spectrum van AI-technologie, maar er zijn grenzen aan de orde ervan. Het wijst naar belangrijk AI-bedrijven; bedrijven waarvan de AI-modellen het potentieel hebben om de nationale veiligheid of economische veiligheid te beïnvloeden. We hebben het over modellen van meerdere miljoenen of miljarden dollars met het grootste bereik.

Het gaat onder meer om producten van onder meer OpenAI, Google, Meta, Anthropic, etc. Kleinere modellen en start-ups zijn voorlopig vrijgesteld van de bestelling. “Dit gaat niet ten koste gaan van AI-systemen die zijn getraind door afgestudeerde studenten of zelfs professoren”, aldus een overheidsfunctionaris. Dus als u nu in uw kelder een LLM begint te maken, bent u niet aan de regels onderworpen.

Ze gelden ook niet voor producten die vandaag de dag op de markt zijn. Dit betekent dat grote producten zoals Bing AI, ChatGPT, Bard (de jury is uit over Gemini), Snapchat My AI en andere niet onder de regels vallen. Toekomstige AI-modellen met een capaciteit van 10^26 petaflops vallen echter onder de regels.

De EO richt zich op meer dan alleen AI-bedrijven

Dit uitvoeringsbesluit wil geen middel onbeproefd laten. Het bevel richt zich tot het ministerie van Energie en Binnenlandse Veiligheid. Deze afdeling wordt overgehaald om de potentiële bedreigingen voor “kritieke infrastructuur, evenals chemische, biologische, radiologische, nucleaire en cyberveiligheidsrisico’s” aan te pakken. Dit laat alleen maar zien hoe diep de invloed van AI zou kunnen gaan.

We weten niet zeker hoe de afdeling deze risico’s zal aanpakken, maar het is uiterst belangrijk dat dit wel gebeurt. AI wordt gebruikt voor zakelijke toepassingen, en er bestaat geen twijfel over dat het in de nabije toekomst ook in overheidssectoren kan worden gebruikt. We moeten ervoor zorgen dat dit geen grote problemen veroorzaakt.

Cyberbeveiliging

Wat het onderwerp cyberveiligheid betreft, beoogt het bevel een cyberveiligheidsprogramma te creëren dat AI zal gebruiken om zelfstandig cyberveiligheidsbedreigingen te vinden en uit te roeien.

Dit zou een grote zegen kunnen zijn voor de cyberveiligheid, maar de potentiële resultaten moeten nog blijken. Hiermee wordt alleen de intentie uitgedrukt om het programma te maken. We weten niet wanneer het programma tot stand komt en wie erbij betrokken zal zijn. Deze EO is nog nieuw, dus niets staat echt in steen gebeiteld.

Watermerken

Dit volgende onderwerp raakt een persoonlijker front. Het wordt steeds moeilijker om te weten of de inhoud die u op internet ziet, door mensen is gemaakt of door AI is gegenereerd. In de begindagen van DALL-E was het net zo duidelijk als de griezelige neuzen op door AI gegenereerde gezichten. Nu wordt het niet meer van elkaar te onderscheiden.

Het is vrij gemakkelijk voor mensen om deepfaked en misleidende inhoud te creëren en de massa voor de gek te houden. Dit komt tot een hoogtepunt tijdens het verkiezingsseizoen.

Dit is de reden waarom de EO interesse toont in het creëren van een watermerksysteem, zodat mensen kunnen weten dat door AI gegenereerde inhoud inderdaad door AI gegenereerd is.

Hoewel dit het geval is, verwijst het bevel niet naar specifieke plannen of methoden voor het creëren van het systeem. Er werd feitelijk alleen maar gezegd dat het de regering bezighoudt. We zullen moeten wachten op meer informatie op dat front.

Burgerrechten

Een ander actueel onderwerp van AI heeft te maken met discriminatie. Dit is een groot probleem bij AI. Hoe slim LLM’s ook zijn, ze hebben geen moreel kompas. Ze zijn getraind in informatie op internet en alle bevooroordeelde informatie die daarmee gepaard gaat. Dit betekent dat AI-modellen onbedoeld bevooroordeeld kunnen zijn tegen bepaalde groepen mensen. Als dat het geval is, zal die vooringenomenheid zich vertalen in de toepassingen waarvoor de AI wordt gebruikt.

De EO wil dit bestrijden door zich uit te breiden tot “verhuurders, federale uitkeringsprogramma’s en federale aannemers”. Dit zijn allemaal gebieden waar raciale en andere vormen van discriminatie een grote invloed hebben. Stel, u bent een verhuurder en u gebruikt AI om aanvragen van hoopvolle huurders door te nemen. Als de AI is getraind op bevooroordeelde informatie over Afro-Amerikaanse mensen, zal het automatisch gekleurde mensen afwijzen en aan hen voorbij laten gaan, zelfs als ze perfect gekwalificeerd zijn.

Dit omvat ook “het gebruik van AI bij veroordelingen, voorwaardelijke vrijlating en proeftijd, voorlopige vrijlating en detentie, risicobeoordelingen, toezicht, misdaadvoorspelling en voorspellend politiewerk, en forensische analyse.” Dit zijn gebieden die menselijke invloed nodig hebben en geen algoritmisch gevoede gegevens. Deze impuls zal ervoor zorgen dat AI niet zal leiden tot onwettige vervolging of discriminatie.

Privacy

De EO ging ook in op het allerbelangrijkste onderwerp privacy. Deze is ook behoorlijk vaag, omdat deze zich nog in de beginfase bevindt. Wat we weten is dat er prioriteit moet worden gegeven aan methoden voor het verzamelen van gegevens die de informatie van gebruikers niet in gevaar brengen. LLM’s zijn slechts monumentale hoeveelheden informatie die erop wachten om te worden gelekt.

Dit besluit zal ernaar streven een betere beveiliging van persoonlijke gegevens te garanderen. Er zijn geen solide plannen beschikbaar voor het publiek. Net als andere delen van deze order hebben we alleen informatie over de bedoeling. Wat we wel weten is dat oplossingen “cryptografische tools kunnen omvatten die de privacy van individuen beschermen”.

Arbeiders rechten

Dit is het gebied van AI dat het dichtst bij huis komt. We kennen al lang de angst om uit onze baan te worden gezet als de technologie ons overbodig maakt. Goed. AI heeft bewezen buitengewoon goed in staat te zijn mensen met verschillende taken te vervangen.

Dit is iets dat de EO wil aanpakken. Het zal brengen “de ontwikkeling van principes en beste praktijken voor werkgevers die de schade beperken en de voordelen van AI voor werknemers maximaliseren,zegt een bestuursambtenaar. Deze richtlijnen zijn bedoeld om te voorkomen dat banen in verschillende sectoren grote delen van hun personeel ontslaan in plaats van AI-technologie. Het zal ook helpen hogere en leidinggevende posities te beschermen tegen automatisering met AI.

Dit is slechts de eerste stap

Op dit moment kunnen deze niet worden gezien als regelgeving of wetten. Zelfs nu, bijna een jaar nadat ChatGPT op de markt kwam, beginnen we nog maar pas het potentieel van AI-technologie te beseffen, of het nu goed of slecht is. Het is dus moeilijk om echt te zeggen wat AI-bedrijven wel en niet kunnen doen.

Deze EO is echter de eerste stap op weg naar het opstellen van een rulebook waaraan bedrijven zich moeten houden. Naarmate de tijd verstrijkt, zullen er meer regels en voorschriften naar voren komen. Het enige wat we hoeven te doen is wachten.

Thijs Van der Does