De EU AI-wet is nu officieel!

Sinds de AI-hausse van 2022 zijn wetgevers en beleidsmakers druk bezig geweest om een ​​manier te vinden om deze technologie en de bedrijven die deze ontwikkelen te reguleren. Na jaren van werk heeft de EU officieel de eerste set daadwerkelijke wetten opgesteld die AI regelen.

Dit heet de EU AI Act en is al een tijdje in ontwikkeling. Sterker nog, het is al sinds 2020 in ontwikkeling. Dit is een mijlpaal in de wetgeving, omdat het de toon kan zetten voor hoe de rest van de wereld AI-bedrijven bestuurt.

De EU AI-wet is nu officieel van kracht

Het zal geen verrassing zijn dat de EU de eerste is die daadwerkelijke AI-wetten vaststelt. Een paar maanden geleden kregen we het nieuws dat deze wet van kracht zou worden. Het was een waarschuwing voor bedrijven om op hun hoede te zijn voor de komende regelgeving. Nu deze wetten van kracht zijn, kunnen bedrijven die ze overtreden, op zijn minst te maken krijgen met flinke boetes.

Welke bedrijven worden hierdoor getroffen?

Het zal geen verrassing zijn dat bedrijven die in de EU gevestigd zijn, getroffen zullen worden. Bedrijven die verantwoordelijk zijn voor het ontwikkelen of trainen van AI-modellen zullen onder streng toezicht van de overheid komen te staan. Deze wetten zullen niet alleen gericht zijn op technologiebedrijven, maar ook op bedrijven die ze alleen maar implementeren of gebruiken. Als AI een significante impact heeft op het bedrijf of het product ervan, zal de EU ernaar kijken.

De reikwijdte van deze wetten is niet beperkt tot bedrijven die in de EU actief zijn. Het feit is dat de bedrijven met de meeste controle over de AI-industrie in de VS gevestigd zijn. We hebben het over Google, OpenAI, Microsoft, Amazon, Meta en Apple. De wet zal een speciaal belang hebben bij deze bedrijven, aangezien zij de grootste impact op de AI-industrie zullen hebben.

“…de AI Act zal waarschijnlijk op u van toepassing zijn, ongeacht waar u zich bevindt”, aldus Charlie Thompson, senior vice president van EMEA en LATAM voor enterprise softwarebedrijf Appian. Als een bedrijf een grote invloed op de wereld heeft, of als het activiteiten heeft in de EU, dan zal het onder de loep worden genomen.

Hoe worden de AI-bedrijven bestuurd?

De EU zal bedrijven beoordelen op basis van een risicogebaseerd systeem. Ze zullen worden beoordeeld op hoeveel hun producten de maatschappij opleveren. Een klein bedrijf dat een eenvoudige AI-tool maakt om uw e-mailbox te organiseren, zal anders worden beoordeeld dan een groot bedrijf dat AI-tools levert die worden gebruikt om orkanen te volgen.

AI-toepassingen die als “Hoog-risico” worden beschouwd, vallen onder veel strengere regelgeving. Hoog-risicotoepassingen omvatten AI-tools die worden gebruikt in de geneeskunde, zelfrijdende auto’s, systemen voor het nemen van beslissingen over leningen, biometrische identificatie op afstand en onderwijssystemen, aldus CNBC. Als een AI-tool een van die toepassingen verknoeit, zouden de gevolgen verwoestend zijn voor talloze mensen.

Er zijn ook toepassingen die zo’n hoog risico vormen dat ze door de overheid als “onacceptabel” worden beschouwd. Een goed voorbeeld hiervan is wat Social Scoring, predictive policing en emotional recognition technology wordt genoemd, zoals CNBC stelt.

Dergelijke applicaties zijn verboden en elk bedrijf dat betrapt wordt op overtreding van het verbod, zal worden geconfronteerd met sancties.

Bedrijven die AI-toepassingen met een hoog risico ontwikkelen, zullen ook meer verplichtingen hebben jegens de EU. Ze omvatten het voortdurend loggen van activiteiten, zodat de overheid niet in het ongewisse wordt gelaten. Ook zullen deze bedrijven datasets van hogere kwaliteit moeten gebruiken om het risico op bias te verminderen. Bedrijven met een hoog risico moeten ook gedetailleerde documentatie over de AI-modellen delen met de juiste autoriteiten.

Zelfs als het bedrijf niet in de EU is gevestigd, moeten ze zich nog steeds houden aan de EU-auteursrechtwetgeving en de juiste cyberbeveiligingsmaatregelen implementeren. Ze moeten ook aan de overheid rapporteren hoe hun AI-modellen zijn getraind.

De uitzondering voor open-sourcemodellen

Bedrijven als Google, OpenAI en andere bedrijven die closed-source modellen trainen, zullen onder strenge regels vallen. Bedrijven als Meta, Stability AI en Mistral die open-source modellen ontwikkelen, zullen echter niet onder zulke strenge beperkingen vallen.

Bedrijven kunnen in aanmerking komen voor uitzonderingen op sommige regels, maar om dat te doen, moeten hun modellen echt open en transparant zijn. Als zodanig is informatie over de modellen, zoals modelarchitectuur, gewichten en modelgebruik, beschikbaar voor het publiek. We weten niet zeker of de beste open-sourcemodellen op de markt aan deze vereisten voldoen.

Gevolgen bij overtreding van de EU AI-wet

Als een bedrijf deze wetten overtreedt, kan het rekenen op zware boetes. Het bedrag dat het bedrijf krijgt, hangt af van de grootte van het bedrijf en de zwaarte van de overtreding. Als een bedrijf de wet overtreedt, kan het een boete krijgen van € 7,5 miljoen tot € 35 miljoen of tussen 1,5% en 7% van de wereldwijde omzet van het bedrijf. Dat zijn behoorlijk forse boetes. Kleinere bedrijven krijgen lagere boetes en grotere bedrijven kunnen de volledige boete opgelegd krijgen.

Hoewel deze wetten zijn ingevoerd om ervoor te zorgen dat AI veilig wordt beheerd en gereguleerd, zijn we er vrij zeker van dat sommige van deze bedrijven er tegenaan zullen botsen. We zullen moeten afwachten of ze netjes met de wet omgaan, zodat we allemaal een veiligere AI-toekomst kunnen hebben.

Het bericht De EU AI Act is nu officieel! verscheen het eerst op Android Headlines.

Thijs Van der Does