ChatGPT functioneerde niet goed en begon wartaal te spuien

ChatGPT had onlangs een grote storing toen het AI-model compleet onzin begon te spreken tegen meerdere gebruikers. Er verschenen verschillende berichten, vooral op Reddit, dat ChatGPT volslagen onzinnige praatjes maakte. Er waren ook berichten dat de AI vast kwam te zitten in loops of talen samenvoegde voor vreemde hybriden. OpenAI merkte het op en identificeerde het probleem later, waarna het een paar uur later werd opgelost.

ChatGPT werkt niet goed, blijft hangen in lussen en spuugt wartaal

Eén rapport op Reddit liet zien dat ChatGPT plotseling onsamenhangend begon te praten. Willekeurige woorden, fragmenten uit specifieke trainingsgegevens en zelfs verschillende talen werden allemaal door de AI eruit gegooid. Bij een ander storingsrapport deelde een gebruiker meerdere screenshots van ChatGPT die schommelde tussen hallucineren en helder zijn. Na onzin te hebben gepraat, bleef het in een lus hangen voordat het zijn antwoord beëindigde. Nadat de gebruiker hem hierop had gewezen, bood hij zijn excuses aan, voordat hij weer wartaal uitsprak. Dit herhaalde zich nog een keer, waarna de screenshots werden gemaakt.

Een ander zeer interessant bericht liet zien dat ChatGPT opnieuw in een lus bleef steken. Deze keer was de lus echter zelfcorrigerend. Toen ChatGPT eenmaal werd gevraagd om de grootste stad ter wereld te noemen, beginnend met de letter ‘A’, ging het op een heel vreemde toon. Het zou een stad noemen, dan zeggen dat het niet het juiste antwoord was en het opnieuw proberen, tot in het oneindige. Mensen in de reacties probeerden dit met hun eigen chats en deelden vergelijkbare resultaten. Nog een ander bericht op Reddit over GPT-4, het premium abonnementsmodel van OpenAI, liet zien dat ChatGPT hallucineerde. Opnieuw deelden meerdere gebruikers in de reacties vergelijkbare resultaten.

OpenAI legt uit waarom dit gebeurde

OpenAI nam nota van de zich ontwikkelende storing en identificeerde het probleem snel. Binnen een paar uur meldde het bedrijf dat ChatGPT normaal werkte op de statuspagina. De volgende dag gaf het bedrijf een verklaring vrij voor wat er zo mis was gegaan.

Blijkbaar had een onlangs geïntroduceerde optimalisatie de zaken verprutst. OpenAI legde in heel eenvoudige bewoordingen uit hoe ChatGPT werkt en wat er mis was gegaan.

“LLM’s [Large Language Models] antwoorden genereren door willekeurig woorden te bemonsteren, gedeeltelijk gebaseerd op waarschijnlijkheden. Hun ‘taal’ bestaat uit getallen die verwijzen naar tokens. In dit geval zat de bug in de stap waarin het model deze getallen kiest. Het model leek alsof het verloren ging bij de vertaling en koos enigszins verkeerde getallen, waardoor woordreeksen ontstonden die nergens op sloegen.”

Kortom, ChatGPT gebruikte de verkeerde woorden en vertoonde verachtelijk gebrabbel. Zie het als het gooien van pijltjes naar een groot woordenboek en het construeren van een zin uit de woorden waarop de pijltjes terechtkwamen.

Thijs Van der Does