AI -modellen zouden tegen ons kunnen schemeren, en we zullen het nooit weten

AI -modellen zoals CHATGPT zijn software, wat betekent dat ze een specifieke set instructies volgen. Maar in tegenstelling tot reguliere software, zoals een tekstverwerker, is AI ‘intelligent’. AI-aangedreven systemen kunnen leren en evolueren. Maar kunnen AI -modellen evolueren tot het punt waarop ze tegen ons kunnen plannen zonder onze medeweten?

Het plannen van AI -modellen

De informatie sprak met een Openai -onderzoeker die suggereerde dat AI -modellen misschien zo slim zouden kunnen worden en evolueerden dat ze tegen ons konden schieten, en we zouden niet wijzer zijn.

Hoe is dit mogelijk, vraagt ​​u? Denk aan uw huidige denkproces. Als iemand je vroeg wat 2+2 is, zou je je denkvolgorde op een logische manier uitleggen. Het kritieke proces van AI is echter niet zo zwart en wit.

Het R1 -model van Deepseek werd bijvoorbeeld geanalyseerd toen werd gevraagd om een ​​chemieprobleem op te lossen. Het gaf het juiste antwoord, maar het kritieke proces was een stel gebrabbel dat mensen misschien niet konden begrijpen. Dit komt omdat het denkproces dat door AI -modellen wordt gebruikt, iets is dat niet noodzakelijkerwijs iets voor mensen hoeft te betekenen; Het hoeft alleen maar het probleem op te lossen. Hoe het daar komt, doet er niet echt toe, zolang het zolang het doet.

Dit betekent dat naarmate AI’s blijven leren en evolueren, er een moment in de tijd kan komen dat ze iets achter onze rug plotten, en we zouden het niet kunnen vertellen. Afgezien van het Terminator-achtige scenario, vormt dit ook een probleem voor AI-bedrijven.

Wanneer software niet doet wat het zou moeten, controleren ontwikkelaars de logboeken om te zien wat er gebeurt. Ze kunnen vervolgens de fout vaststellen en terugkeren naar de code om deze op te lossen. Als het proces echter volledig onbegrijpelijk is voor mensen, hoe zouden AI-ingenieurs dan het probleem kunnen vinden en het AI-model kunnen verfijnen?

De oproep tot regelgeving

De vooruitgang die de afgelopen jaren in AI zijn gemaakt, zijn sprongen en grenzen vóór wat er in het verleden is gedaan. Dit breakneck tempo van ontwikkeling is indrukwekkend maar ook verontrustend. Daarom is het essentieel om AI te reguleren. Toegegeven, regels en voorschriften kunnen de vooruitgang vertragen, maar willen we echt racen in een toekomst waarin AI de mensheid heeft ingehaald?

We hebben al bewijs gezien van hoe AI verschillende persona’s kan aannemen op basis van de trainingsgegevens. Dit betekent dat het voor iemand mogelijk is om een ​​AI te programmeren met een “slechte” persoonlijkheid. We hebben ook alarmerende studies gezien waarbij een AI -model bereid was om mensen te doden in een hypothetisch scenario om te voorkomen dat hij werd afgesloten.

Thijs Van der Does