Voor iedereen die op AI vertrouwt om informatie op te zoeken, hetzij voor persoonlijk of professioneel gebruik, weet dat AI kan hallucineren. Dit betekent dat de informatie die het u geeft soms verkeerd kan zijn of gewoon volledig verzonnen kan zijn. Dit is ook de reden waarom het belangrijk is om te controleren voordat je wat AI zegt als evangelie. Helaas, niet iedereen doet dat de reden waarom restaurants Google AI oproepen via neprestaurant deals.
Google AI geeft neprestaurant deals
We zijn er zeker van dat sommigen van jullie berichten zijn tegengekomen op Facebook, Instagram, threads of X/Twitter van zogenaamde “prompt-experts”. Deze berichten beweren vaak dat het gebruik van AI -tools zoals Chatgpt ze “duizenden dollars” heeft bespaard op vluchten, hotels en meer. Dit wordt vermoedelijk gedaan door AI te gebruiken om het web te doorzoeken voor deals.
Daarom bellen sommige bedrijfseigenaren nu Google en zijn AI voor het verstrekken van valse informatie aan klanten over restaurantdeals en specials. Stefanina’s pizzeria in Wentzville maakte een bericht op sociale media om op het probleem te wijzen.
Volgens de post, “Gebruik Google AI niet om onze specials te vinden. Ga naar onze Facebook -pagina of onze website. Google AI is niet nauwkeurig en vertelt mensen specials die niet bestaan, waardoor boze klanten naar onze medewerkers schreeuwen. We kunnen niet bepalen wat Google zegt of zegt, en we zullen de Google AI -specials niet eren.”
Jonathan Hanahan, een professor van de Washington University die kunstmatige intelligentie gebruikt en lesgeeft, zegt tegen KMOV dat deze onnauwkeurigheden soms als gevolg van de prompt verschijnen. Dit kan leiden tot informatie die scheef is of bevestigingsvooroordeel heeft.
Niet de eerste keer dat dit is gebeurd
De opmerkingen van Hanahan zijn eigenlijk op punt. Het komt ook in overeenstemming met een recente Oxford -studie, die heeft aangetoond dat AI -tools eigenlijk geweldig zijn in het verstrekken van medische diagnoses. In combinatie met menselijke gebruikers daalt die nauwkeurigheid echter aanzienlijk. Het gaat van 94,9% tot een zorgwekkende 34,5%. Het blijkt dat dit te maken heeft met hoe mensen de vraag stellen en omgaan met het AI -model.
De AI -modellen kunnen daadwerkelijk een nauwkeurige diagnose stellen, maar omdat menselijke gebruikers soms stukjes informatie laten, geeft het de AI niet het volledige beeld, wat leidt tot een onnauwkeurige diagnose. Dit kan een van de problemen zijn waarmee gebruikers worden geconfronteerd bij het vertrouwen op AI -tools zoals het AI -overzicht van Google.
In ieder geval zorgt dit voor een sterk geval van niet overdreven afhankelijk van AI, evenals altijd de informatie te controleren voordat u iets aanneemt.