AI blijft hallucineren – maar hey, het klinkt er echt zeker van

Hoeveel kunt u AI vertrouwen? Wanneer u het een vraag stelt, spreekt het de antwoorden op u op zo’n zelfverzekerde manier terug dat het moeilijk is om het niet aan zijn woord te doen. In feite worden AI -modellen bij elke update slimmer. Helaas lijkt het er ook op dat er steeds meer meldingen zijn van AI -hallucinaties.

AI -hallucinaties nemen toe

Uit een recent onderzoek van de New York Times bleek dat AI -hallucinaties toenemen. Dit ondanks het feit dat veel AI -modellen slimmer worden. Velen zijn veel beter in het oplossen van wiskundeproblemen dan voorheen. Sommigen zijn in staat om diep onderzoek te doen, maar ze kunnen hun feiten nog steeds niet rechtzetten.

Het rapport noemt een instantie waarin een AI -bot die technische ondersteuning afhandelt voor een bedrijf genaamd Cursor vertelde klanten dat ze niet langer mochten cursor op meerdere computers gebruiken. Beleidsveranderingen zijn normaal. Maar in dit geval waren ze helemaal verkeerd. Cursor nam contact op met klanten en informeerde hen dat een dergelijke beleidswijziging niet bestond.

De chatgpt -tests van Openai hebben zelfs aangetoond dat de nieuwere modellen, die verondersteld worden beter te zijn, hallucineren met een hoger tempo dan zijn oudere modellen. Openai’s O3 -model hallucineerde bijvoorbeeld 33% van de tijd bij het uitvoeren van de Personqa -benchmark -test. Dat is twee keer zoveel als het O1 -model. En o4-mini? Dat is nog erger – het hallucineerde met een snelheid van 48%.

Dus de vraag is, kunnen hallucinaties worden opgelost? Volgens AMR Awadallah, de chief executive van Vectara en een voormalige Google -directeur, nr. Awadallah zegt, “Ondanks onze inspanningen zullen ze altijd hallucineren. Dat zal nooit verdwijnen.”

Wat zijn hallucinaties?

Voor degenen die niet bekend zijn met het concept van AI -hallucinaties, is het een voorbeeld waarin een AI -model feiten ter plekke goedmaakt, schijnbaar uit het niets. Sommigen hebben theoretiseerd dat sommige AI -modellen hallucineren vanwege de hoeveelheid redenering die ze moeten doen.

Eenvoudigere AI-modellen vertrouwen op voorspellingen met veel vertrouwen, wat betekent dat ze minder risico’s nemen. Sommige AI -modellen die redeneermogelijkheden bevatten, moeten echter verschillende mogelijkheden evalueren. In sommige gevallen moeten ze misschien zelfs improviseren, wat ertoe kan leiden dat ze dingen verzinnen.

Dit is de reden waarom, als u AI gebruikt voor onderzoeksdoeleinden, dit waarschijnlijk een goed idee is om bepaalde feiten te controleren. Dit lijkt contra -intuïtief, maar als je AI gebruikt om onderzoek te doen voor werk of school, dan zal je misschien een beetje meer tijd nemen om het goed te krijgen een lange weg.

De post AI blijft hallucineren – maar hey, het klinkt er echt zeker van dat het eerst op Android -koppen verscheen.

Thijs Van der Does