Als het gaat om de ontwikkeling van AI, gaat het niet alleen om het krachtig maken van producten, maar ook om het veilig maken ervan. Wanneer een bedrijf echter besluit veiligheid minder prioriteit te geven, kunnen er problemen ontstaan. Een OpenAI-onderzoeker genaamd Jan Leike heeft het bedrijf verlaten en zegt dat de veiligheid op de achtergrond is gekomen.
Leike is niet de enige die het bedrijf verlaat. Onlangs heeft Ilya Sutskever, voormalig hoofdwetenschapper van OpenAI, ontslag genomen. Hij verliet het bedrijf om een project na te streven dat persoonlijk belangrijk voor hem was, maar we weten niet wat dat project is. Het afscheid verliep in ieder geval op goede voet, aangezien andere OpenAI-leden, waaronder Sam Altman, hun verdriet uitten over zijn vertrek.
Een OpenAI-onderzoeker heeft het bedrijf verlaten
Jan Leike was een sleutelonderzoeker bij het bedrijf en hij kondigde nog maar een paar dagen geleden zijn ontslag aan. Hij plaatste een uitgebreide draad op x.com over waarom hij vertrok.
In een van de verschillende berichten zei hij dat “de veiligheidscultuur en -processen de afgelopen jaren op de achterbank zijn gekomen van glanzende producten.” Hij zei ook: “Ik ben het al geruime tijd oneens met het leiderschap van OpenAI over de kernprioriteiten van het bedrijf tijd totdat we eindelijk een breekpunt bereikten.
OpenAI had ooit een team van mensen die de langetermijnrisico's van AI zouden aanpakken, en dat team heette het Super Alignment-team. Het werd afgelopen juli opgericht en Leike was het hoofd van dat team. Uiteraard is elk veiligheidsteam een welkome aanvulling als het om AI gaat.
Onlangs heeft OpenAI dat team echter ontbonden. Dat is nooit een goed teken. Voordat het team werd ontbonden, kreeg het team ook een zware prioriteit en kreeg het steeds minder middelen en computercapaciteit om belangrijk werk uit te voeren.
Dit laatste ontslag schetst een probleem dat zich binnen OpenAI afspeelt. Het lijkt erop dat er binnen het bedrijf enige spanning groeit tussen de werknemers, de CEO en de algemene leiding van het bedrijf. We weten niet zeker of dit invloed zal hebben op het doel van OpenAI om AGI te bereiken. We zullen gewoon moeten afwachten.