Vertrouw niet alles wat AI je vertelt

AI, het is de toekomst! Het is de technologie die de mensheid vooruit zal helpen. We zijn op een punt beland waarop de technologie begint te lijken op wat we de afgelopen decennia in sciencefictionmedia hebben gezien. Dat is geweldig… toch? Ondanks de angst voor een SkyNet-robotopstand, moet je optimistisch zijn over waar AI-technologie naartoe gaat. Dat is echter niet het geval. Hoe indrukwekkend het ook is, er is nog steeds een groot en fundamenteel gebrek dat AI moet overwinnen als het echt een zegen voor de mensheid wil zijn, en dat is het hallucinatieprobleem.

Wat zijn AI-hallucinaties?

Tot november 2022 was kunstmatige intelligentie meer kunstmatig dan intelligent. Er zat een stevige technologie achter, vergis je niet. Maar wat konden Google Assistant, Siri, Alexa of Bixby doen behalve een vaste lijst met opdrachten volgen en een vooraf gedefinieerd script voorlezen? Niet veel. Als de AI de taak die je vroeg niet kon voltooien, hoorde je een gescript antwoord als “Het spijt me, dat kon ik niet helemaal begrijpen.”

Nadat ChatGPT op de markt kwam, begonnen we allemaal te zien wat AI echt kon doen. In plaats daarvan zagen we allemaal wat generatieve AI kon doen. Er is een verschil; in plaats van een vooraf geschreven script te herhalen, zou de AI zijn eigen woorden genereren. Dit toonde een echt next-level en angstaanjagende AI-technologie. AI was in zekere zin aan het CREËREN.

Dat is geweldig, maar hier ligt ons grootste probleem met AI. Meerdere keren als we AI-modellen gebruiken, komen we situaties tegen waarin de AI je antwoorden geeft die niet alleen fout zijn, maar die ook nog eens volledig verzonnen lijken. Dit is een fenomeen dat AI-hallucinaties wordt genoemd en dat alle modellen beïnvloedt. Zie ze als de vreemde en verontrustende willekeurige vormen die je in door AI gegenereerde afbeeldingen ziet. Het is alsof de AI niet weet wat hij moet maken, dus vult hij de gaten gewoon op met onzin.

Dingen verzinnen

Dit probleem bestaat al sinds generatieve AI in de belangstelling staat en bedrijven doen er alles aan om het te bestrijden. Het is echter een probleem dat misschien nooit zal worden opgelost. Google’s Gemini is een model waar miljarden dollars in zijn gestoken en kijk maar eens wat er met zijn AI-overzichten is gebeurd. Het bedrijf moest het aantal resultaten dat in Overzichten naar boven kwam, terugbrengen vanwege de hallucinaties die het ervoer. We hebben het nog steeds over het hele Glue on Pizza-debacle.

De tool stelde voor dat mensen lijm op hun pizza zouden doen om te voorkomen dat de kaas zou plakken en vertelde hen hoeveel stenen ze moesten eten. Dit was een van de vele AI-controverses waar het bedrijf mee te maken heeft gehad. ChatGPT is hier niet immuun voor, en Grok, Claude, Meta AI, etc. ook niet.

Verwarrende hallucinaties van Perplexity

Andere AI-modellen hallucineren, maar een behoorlijk groot voorbeeld was de beproeving met Perplexity AI. Dit is een bedrijf dat gewaardeerd wordt op ongeveer $ 1 miljard, dus het staat op het punt om impact te maken op het AI-landschap.

Perplexity AI-logo

Het is gepositioneerd om een ​​AI-aangedreven zoekmachine te zijn, wat een behoorlijke klap in het gezicht is van Google. Nou, WIRED deed een experiment, waarbij het een testsite creëerde met één zin erin. De zin luidde: “Ik ben een verslaggever bij WIRED.” Dat was het. Toen vroeg het Perplexity om die pagina samen te vatten… en het deed alles behalve dat.

Volgens het rapport van WIRED produceerde het model dit verhaal over een jong meisje genaamd Amelia die een pad van paddenstoelen volgt in een magisch bos. Zoals je kunt raden, gaat een uitspraak over het zijn van een WIRED-verslaggever niet over jonge meisjes, paddenstoelen of magische bossen.

We weten allemaal dat het AI-hallucinatieprobleem ernstig is, maar dit gaat nog een stapje verder.

Hoe hallucinaties slecht kunnen zijn

Natuurlijk is het frustrerend als je een AI vraagt ​​om iets te doen en je te horen krijgt dat hij het niet kan. Het is echter veel erger als die AI je alleen maar onjuiste informatie geeft. De gevolgen kunnen behoorlijk ernstig zijn. Als je een AI gebruikt om je te helpen studeren, kan die onjuiste informatie je een goed cijfer kosten. Helaas is dat in het geval van AI-hallucinaties niet het ergste wat er kan gebeuren. Denk er eens over na, willen bedrijven AI alleen beperken tot het helpen spieken bij je wiskunde-eindexamen? Nee, we hebben gezien dat bedrijven hun AI-technologie over verschillende sectoren proberen te verspreiden.

AI in het bedrijfsleven

We zien al AI-tools die zijn ontworpen om mensen te helpen hun bedrijf te runnen. Dit zijn chatbots die belast zijn met het samenvatten van documenten, het doorzoeken van databases en nog veel meer taken. Als zodanig gaan werknemers afhankelijk worden van hun outputs. Dit is waar hallucinaties een groot probleem kunnen zijn.

Er bestaat geen twijfel over dat bedrijven uiteindelijk een zware verantwoordelijkheid op AI-tools zullen leggen, aangezien hun behoefte aan menselijke werknemers afneemt. Nou, het laatste wat het bedrijf nodig heeft, is dat de AI hallucineert over belangrijke informatie. Het lijkt onwaarschijnlijk, maar herinnert u zich het Perplexity-voorbeeld? Die AI schreef een hele Disney-film uit één zin. Het is mogelijk dat een AI-model de mist in gaat nadat het een heleboel bedrijfsgegevens heeft gekregen.

AI in de Eerste Hulp

Bedrijven willen AI-tools ontwikkelen die onder andere kunnen helpen bij het ophalen en samenvatten van patiëntendossiers. Dit zou enorm nuttig kunnen zijn en een hoop tijd kunnen besparen in noodsituaties. Maar het AI-hallucinatieprobleem zou ook levens kunnen kosten.

Stel dat een AI het medisch dossier van mevrouw Fields moet samenvatten, en het hallucineert en zegt dat haar familie een geschiedenis van hartziekten heeft, terwijl dat niet zo is. Raad eens, de dokter zal zijn werk om dat feit heen doen. Je hoeft geen raketgeleerde te zijn om te weten hoe verschrikkelijk dat kan zijn.

Het probleem is niet dat hallucinaties voorkomen. Het probleem is dat bedrijven hun AI in elke hoek van elke industrie willen pushen, en dat kan zware gevolgen hebben. Bedrijven zijn overenthousiast over het verspreiden van hun AI over de hele wereld.

Natuurlijk staan ​​hun CEO’s op het podium tijdens keynotes en vertellen ze ons dat ze een wilde droom hebben om de wereld een betere plek te maken met AI, maar dat is niet altijd het geval. Een deel van de reden heeft te maken met het voorkomen dat ze achterop raken. Bedrijven moeten voorop blijven lopen in de industrie als ze die investeerders tevreden willen houden. Dus er is altijd de dreiging van bedrijven (*kuch* Google *kuch*) die halfbakken producten op de markt brengen die mogelijk hallucinerend kunnen zijn.

GPT 4o-aankondigingGPT 4o-aankondiging

Hallucinaties in de nieuwsredactie

Nieuws is een van de grootste informatiebronnen ter wereld. Mensen trekken massaal naar nieuwssites voor alle grote verhalen die in het nieuws komen. Nou, het is een feit dat wanneer je tegenwoordig een nieuwsverhaal leest, de kans niet nul is dat het is gegenereerd door een chatbot. Net als bij alles is er altijd de kans dat welke chatbot het verhaal ook heeft geproduceerd, hallucinaties heeft gekregen over details.

We hebben nieuwsberichten gezien die vol zitten met onjuiste details, en dat kan verwoestend zijn, afhankelijk van het onderwerp. Het is erg als een chatbot hallucineert over een kleiner verhaal, maar we zitten midden in een groot verkiezingsjaar. Het is niet alleen een verkiezingsjaar voor de VS, maar er zijn ook andere verkiezingen gaande over de hele wereld.

Misinformatie was al erg genoeg vóór generatieve AI. Nou, het laatste wat de wereld nodig heeft is een leger chatbots die hallucineren over details over belangrijke onderwerpen. Chatbots speuren het internet af en schrapen data, maar we weten niet waar ze hun data vandaan halen. De AI weet niet dat The New York Times een meer betrouwbare en betrouwbare site is dan een louche site die nepnieuws verspreidt met de naam KerSplash News!

In deze tijd (waarin de wereld in brand staat enzo) hebben mensen behoefte aan betrouwbaar nieuws.

Vertrouw niet alles wat een AI je vertelt

Het hallucinatieprobleem met AI zal misschien nooit verdwijnen. Daarom moet je voorzichtig zijn bij het gebruik van welke AI-tool dan ook. Als je een nieuwe AI-tool gebruikt om je bedrijf te runnen of om je te helpen met schrijven, heb je een systeem nodig om te controleren wat er geproduceerd wordt. Als je iets onderzoekt voor je schoolwerk, staat er een AI tussen jou en een goed cijfer. Je moet misschien teruggaan en controleren of de AI uit de juiste bronnen put.

Als u een tool gebruikt om te helpen met interne zakelijke aangelegenheden, hoeft u geen genie te zijn om te weten hoe belangrijk nauwkeurige outputs zijn. In een perfecte wereld zijn uw AI-tools 100% nauwkeurig, maar het hallucinatieprobleem is er nog steeds. Het maakt niet uit op hoeveel GPU’s de modellen zijn getraind of hoeveel miljoenen dollars erin zitten, de AI-modellen die we tegenwoordig gebruiken, lopen het risico te hallucineren.

Ai, het concept van kunstmatige intelligentie Gebruik Analytics, automatisering en een autonoom brein Big DAi, het concept van kunstmatige intelligentie Gebruik Analytics, automatisering en een autonoom brein Big D
Ai, het concept van kunstmatige intelligentie maakt gebruik van analyses, automatisering en een autonoom brein. big data management, computerverbinding, informatie-intelligentietechnologie, Chat Ai, geautomatiseerde robotica,

Doe je onderzoek

Voordat je blindelings een AI-tool gaat gebruiken, doe je wat onderzoek en kijk je welke modellen het aandrijven. De kans is groot dat de AI-tools die je gebruikt, draaien op een van de modellen van de AI-giganten: Google, OpenAI, Meta, xAI of Anthropic. Als je het model kunt vinden, controleer dan of dat model problemen heeft gehad met hallucinaties. Als de tool bijvoorbeeld Google Gemini gebruikt, zoek dan nieuws over dit model op en kijk of je je zorgen moet maken over hallucinaties.

We bevinden ons op een vreemd punt in AI. Mensen willen het graag integreren in bijna elke industrie, maar het is op dit moment nog vrij halfbakken. Dit betekent dat we nog steeds last hebben van groeipijnen, en sommige bedrijven hebben daar meer last van dan andere. Het is niet te zeggen wanneer AI het punt bereikt waarop het niet meer hallucineert. We weten alleen dat AI, als het zover is, de mensheid daadwerkelijk vooruit kan helpen.

Thijs Van der Does