We zijn nog steeds bezig met het uitzoeken van de volledige omvang van de mogelijkheden van AI. Soms zijn deze bevindingen verrassend prettig, zoals de ontdekking dat AI een website helemaal opnieuw kan bouwen, zelfs als je geen codeerkennis hebt. Maar soms zijn deze bevindingen duister en verontrustend, waarbij mensen zichzelf verliezen door non-stop te chatten met AI-chatbots. Zozeer zelfs dat Sam Altman, CEO van OpenAI, een nieuwe rol bij het bedrijf heeft aangekondigd, een Head of Preparedness, wiens taak het is om zich zorgen te maken over de gevaren van AI.
OpenAI is op zoek naar een Head of Preparedness
Wat houdt deze rol van Head of Preparedness bij OpenAI in? Volgens de website van OpenAI staat er: “Als hoofd van Preparedness geef je leiding aan de technische strategie en uitvoering van OpenAI’s Preparedness-framework, ons raamwerk waarin de aanpak van OpenAI wordt uitgelegd bij het volgen en voorbereiden op grenscapaciteiten die nieuwe risico’s op ernstige schade met zich meebrengen.”
In zijn post op X zegt Altman ook: “Dit is een cruciale rol in een belangrijke tijd; modellen verbeteren snel en zijn nu tot veel geweldige dingen in staat, maar ze beginnen ook een aantal echte uitdagingen met zich mee te brengen. De potentiële impact van modellen op de geestelijke gezondheid was iets waar we in 2025 een voorproefje van zagen; we zien nu pas dat modellen zo goed worden in computerbeveiliging dat ze kritieke kwetsbaarheden beginnen te ontdekken.”
Kortom, het klinkt alsof OpenAI iemand wil inhuren om toezicht te houden op de gevaren die AI met zich meebrengt.
Deze rol is belangrijker dan ooit
Deze aanwerving komt op een cruciaal moment. Zoals we al zeiden: er zijn verborgen gevaren van AI waar de meesten van ons misschien niet aan denken. Alleen al dit jaar zijn we bijvoorbeeld verschillende zorgwekkende verhalen tegengekomen van mensen die zelfmoord plegen vanwege AI. Dit komt door de natuurlijke en realistische manier waarop AI reageert.
Voor sommigen creëerde dit onbedoeld een metgezel die 24/7 beschikbaar was en die het altijd eens was met wat ze zeiden. Niet alleen dat, maar de lancering van agentische AI-tools zorgt ook voor een hele reeks problemen. Dit omvat snelle injecties, waardoor een aanvaller de controle over de AI kan overnemen en deze voor snode redenen kan gebruiken.
Agentic AI-tools klinken geweldig op papier. Een AI die saaie en repetitieve taken kan automatiseren, waarom niet? Maar kwesties als deze suggereren dat er nog een lange weg te gaan is in het ontdekken van beveiligingsproblemen en mazen in de wet.