Alles wat u moet weten

OpenAI is een van de grootste AI-bedrijven ter wereld en heeft vorm gegeven aan een aantal van de meest geavanceerde kunstmatige intelligentie van onze tijd. Sommige van zijn modellen, zoals GPT 3.5, GPT-4 en GPT-4 Turbo, hebben opnieuw gedefinieerd wat AI kan doen en hebben het tot een van de topconcurrenten van bedrijven als Google gemaakt. Welnu, het nieuwste en beste AI-model van OpenAI heet GPT-4o, en het is het krachtigste model tot nu toe. Wat is GPT-4o en hoe kan dit u ten goede komen tijdens uw AI-reis?

Dit is wat wij hier zijn om te beantwoorden. We gaan doornemen wat dit AI-model is, wat het kan doen, wat het niet kan, en andere informatie waar je je misschien over afvraagt. We zullen de belangrijke vragen beantwoorden en u laten weten of u dit moet gebruiken boven andere modellen zoals Gemini, Claude, Meta AI, enz.

We gaan dieper in op de belangrijkste vragen die u mogelijk heeft. Omdat dit echter over kunstmatige intelligentie gaat, zijn er bepaalde aspecten waar we niet te diep op in kunnen gaan, omdat dit artikel dan veel te lang wordt. Dit omvat het duiken in een deel van de wetenschap en ingewikkelde details over het model.

Ten slotte wordt dit artikel bijgewerkt telkens wanneer GPT-4o een nieuwe toevoeging krijgt. Kom dus gerust af en toe terug om te zien wat er nieuw is in GPT-4o. Zonder verder oponthoud, laten we erin duiken.

Wat is GPT-4o?

Als je de ontwikkeling van de modellen van OpenAI hebt gevolgd, heb je misschien lucht gekregen van het nogal onconventionele naamgevingsschema. GPT-4o klinkt niet veel, maar het is het krachtigste AI-model van OpenAI tot nu toe. Het is de opvolger van GPT-4 Turbo. Dus als u de meest geavanceerde AI-tools van OpenAI gebruikt, gebruikt u waarschijnlijk GPT-4o.

Hoe krijg ik toegang tot het nieuwe model?

Er zijn een paar manieren. Ten eerste heeft u toegang tot GPT-4o op dezelfde manier waarop u regelmatig toegang krijgt tot ChatGPT. U kunt rechtstreeks naar de ChatGPT-website gaan of de speciale mobiele app gebruiken.

Toen OpenAI GPT-4o aankondigde, kondigde het bedrijf ook een andere manier aan waarop je toegang krijgt tot het model. Het kondigde een nieuwe Mac OS-desktopapplicatie aan. Dit verandert ChatGPT in feite in een soort chatassistent op uw computer. Je kunt het oproepen met een eenvoudige sneltoets en communiceren met een zwevende tekstbalk die verschijnt. Daarnaast kunt u afbeeldingen invoeren, schermafbeeldingen toevoegen en foto's maken met de eigen camera van uw apparaat voor invoer. Op het moment dat we dit schrijven, wachten we nog steeds op een stemfunctie voor de applicatie. We weten niet zeker wanneer dat gaat landen.

Wat Windows-gebruikers betreft: op het moment dat dit wordt geschreven, is er geen Windows-applicatie. OpenAI werkt momenteel echter aan een Windows-applicatie die vrijwel hetzelfde zal doen. Het bedrijf is van plan dit ergens later in 2024 te lanceren, dus Windows-gebruikers zullen op de hoogte moeten blijven.

Een andere manier om toegang te krijgen tot GPT-4o is via Microsoft Copilot. Zoals u wellicht weet heeft Microsoft zwaar geïnvesteerd in OpenAI en gebruikt het bedrijf zijn AI-technologie om Copilot aan te drijven. Als zodanig worden enkele van de meest geavanceerde functies van Copilot hoogstwaarschijnlijk mogelijk gemaakt door GPT-4o. Het bedrijf heeft onlangs de nieuwe door Copilot aangedreven pc's aangekondigd, en we zijn er zeker van dat een deel van de sterk geïntegreerde AI-technologie wordt aangedreven door GPT-4o. Dus als u helemaal voor de Copilot van Microsoft bent en voor de manier waarop deze de Windows-ervaring kan verbeteren, dan gebruikt u hoogstwaarschijnlijk GPT-4o.

Moet ik mij hiervoor aanmelden?

Nee. Als u al een OpenAI-account heeft, hoeft u alleen maar naar de ChatGPT-website te gaan, op het vervolgkeuzemenu bovenaan het scherm te klikken en het model te selecteren dat u wilt gebruiken. Als GPT-4o beschikbaar is in uw regio, kunt u deze selecteren.

Als u echter geen OpenAI-account heeft, wilt u zich er eerst voor aanmelden om het nieuwe model te kunnen gebruiken. Als u zich aanmeldt voor een OpenAI-account, krijgt u ook toegang tot andere functies die accounthouders kunnen gebruiken om een ​​meer persoonlijke ervaring te krijgen. Je hebt ook een chatgeschiedenis om een ​​achterstand van je gesprekken te zien.

Betekent de “O” in GPT-4o iets?

Ja, de “O” staat voor “Omni”. We zijn er zeker van dat OpenAI dit ziet als een alles-in-één model dat aan de meeste van uw behoeften kan voldoen.

Is GPT-4o multimodaal?

Ja dat is zo. Met GPT-4o kunt u klassieke, op tekst gebaseerde aanwijzingen invoeren. Het zal ChatGPT aandrijven, net als de andere modellen. Bovendien kan GPT-4o ook spraak verstaan. Met behulp van de spraakfunctie kunt u met het model praten zoals elke digitale assistent.

Niet alleen dat, maar GPT-4o kan ook visuele invoer begrijpen. Het heeft een visiefunctie waarmee het een camerazoeker kan gebruiken om de wereld vast te stellen, net zoals Google Lens of de AI-pin. Het zal ook de mogelijkheid hebben om te zien wat er op uw computerscherm staat en u informatie te geven op basis van wat het ziet.

U kunt GPT-4-vragen stellen over wat er op uw scherm staat, zoals de tekst, afbeeldingen, webpagina's, enz. Vanaf eind mei 2024 is deze functie niet beschikbaar. Dit artikel wordt bijgewerkt zodra het beschikbaar komt.

Hoe krijg ik toegang tot de vision-functie?

Een van de meest opwindende functies die OpenAI samen met GPT-4o aankondigde, waren verbeteringen aan de vision-functie. Hierdoor kan het model zien wat er momenteel op uw scherm staat en vragen beantwoorden over wat het ziet. Niet alleen dat, maar de vision-functie komt ook naar de mobiele versie van ChatGPT.

Het bedrijf liet zien dat ChatGPT een live preview van de wereld kan zien via de zoeker van je camera. Het zal vragen kunnen beantwoorden over wat het waarneemt.

Tijdens de aankondiging kon het wiskundige problemen identificeren die op een stuk papier waren geschreven en de persoon erdoorheen helpen. Daarnaast was het zelfs in staat om naar het gezicht van een persoon te kijken en te vertellen welke emotie hij voelde. Dit is vergelijkbaar met Google's Project Astra, dat het bedrijf slechts een dag na de Vision-functie van OpenAI aankondigde. Er zullen dus zeker enkele vergelijkingen zijn tussen beide functies.

Is er een upgrade naar de spraakfunctie?

De stemfunctie kreeg een behoorlijk opmerkelijke upgrade. GPT-4o was bedoeld als een veel efficiënter en sneller model dan de GPT-4 turbo. Dit is vooral voelbaar in de stemfunctie. Toen OpenAI de nieuwe stemfunctie liet zien, zagen we dat gebruikers veel sneller reacties kregen. U kunt bijna een realtime gesprek nabootsen met een persoon die onmiddellijk op u reageert.

Het antwoord duurde nog een seconde of twee, maar het was nog steeds een verbetering. De stem die je hoort in de respons is ook veel verbeterd. Vanaf eind mei 2024 is de realtime stem echter opgeschort. Er zijn momenteel aanhoudende spanningen tussen OpenAI en Scarlett Johansson. De nieuwe stem die werd onthuld lijkt schokkend veel op de stem van Scarlett Johansson, en ze uitte haar afkeer ervoor. Daarom verandert het bedrijf momenteel van richting.

Wat is het contextvenster voor GPT-4o?

Als het op het contextvenster aankomt, loopt GPT-4o nog steeds behoorlijk ver achter op de rest van het peloton. Momenteel heeft het een contextvenster van 128.000 tokens. Dat is hetzelfde als GPT-4 Turbo. Hoewel het een grote verbetering is ten opzichte van de GPT-4-limiet van 8.192 tokens, ligt het nog steeds mijlenver achter op wat we krijgen van Gemini 1.5 Pro, dat tot 1 miljoen tokens kan bereiken. Google test zelfs een experimentele limiet van 2 miljoen tokens voor Gemini 1.5 Pro. OpenAI heeft dus nog veel in te halen.

Hoeveel kost de GPT-4o API per miljoen tokens?

Hoewel GPT-4o het contextvenster van GPT-4 Turbo deelt, deelt het niet de prijs per miljoen tokens. GPT-4o heeft inputkosten van $5 per miljoen tokens en outputkosten van $15 per miljoen tokens. Dat is de helft van wat u betaalt met GPT-4 Turbo, dat inputkosten heeft van $10 per miljoen tokens en outputkosten van $30 per miljoen tokens.

Voert GPT-4o afbeeldingen uit?

Nee. Het belangrijkste platform voor het genereren van afbeeldingen van OpenAI is nog steeds DALL-E. Het ondersteunt echter wel beeldinvoer.

Hoeveel talen ondersteunt GPT-4o

GPT-4o is beschikbaar in meer dan 50 talen.

Wat is de kennisgrensdatum voor GPT-4o?

Dit is een gebied waar GPT-4 Turbo zijn opvolger heeft verslagen. GPT-4 Turbo heeft een afsluitdatum van december 2023. Dit betekent dat het geen enkele kennis heeft van de wereld die na die datum is gecreëerd. GPT-4o daarentegen stopt in oktober 2023. Dat zijn dus 2 maanden aan gegevens waar het bedrijf geen toegang toe heeft in vergelijking met zijn voorganger. En als je GPT-4o vragen stelt, weet het niets na oktober 2023. Het heeft dus geen enkele kennis van wat er in het jaar 2024 gebeurt. Dat is iets om in gedachten te houden.

Kan GPT-4o een vertaler zijn?

Ja. Een van de belangrijkste kenmerken die werd getoond toen GPT-4o werd onthuld, was de vertaalfunctie. Het is in staat om talloze talen in realtime te vertalen. Het is niet alleen in staat verschillende talen te vertalen, maar reageert ook op een heel menselijke manier. In plaats van de toespraak woord voor woord te vertalen, krijgt u een zeer menselijk klinkende samenvatting van wat de ander heeft gezegd.

Als een Italiaan vraagt: “Waar is de dichtstbijzijnde Starbucks?”, zal GPT-4o dat niet woord voor woord vertalen. Het zal echter een heel menselijk klinkende vertaling opleveren, zoals “Hij wil weten waar de dichtstbijzijnde Starbucks is.” Dit wordt op een manier overgebracht die vergelijkbaar is met wat iemand zou zeggen, in plaats van woord voor woord te vertalen.

Is GPT-4o beschikbaar voor gratis gebruikers?

Ja, maar er is een grote kanttekening. Gratis gebruikers kunnen de mogelijkheden van GPT-4o gebruiken, zoals surfen op internet, het analyseren en extraheren van inzichten uit gegevens, het uploaden van afbeeldingen in prompts, het leveren van ondersteuningsbestanden en prompts, en het gebruiken van GPT's. Wat is het voorbehoud? Welnu, u kunt deze slechts een beperkt aantal keren gebruiken binnen een tijdsbestek van drie uur. Daarna keert u terug naar GPT 3.5.

OpenAI zal u op de hoogte stellen zodra u uw limiet bereikt, en zal u vertellen hoe laat uw limiet opnieuw wordt ingesteld.

Zijn ChatGPT Plus-gebruikers ook beperkt?

Helaas, ja. Als u $ 20/maand betaalt voor toegang tot GPT-4o, kunt u elke drie uur maximaal 80 berichten verzenden. Zodra je die limiet bereikt, word je teruggeslagen naar een minder krachtig model. Zodra er drie uur zijn verstreken, wordt uw limiet opnieuw ingesteld.

Hoe krijg ik toegang tot een hogere limiet met behulp van het model?

Op dit moment lijkt er geen manier te zijn om uw limiet te verhogen. Als u zich echter in een ChatGPT Team-werkruimte bevindt, zou u toegang moeten hebben tot ongeveer twee keer zoveel berichten.

Rollen mijn ongebruikte berichten over?

Nee dat doen ze niet. Als u slechts 60 van uw berichten gebruikt en er 3 uur verstrijken, worden de resterende 20 berichten niet toegevoegd aan uw vernieuwde limiet. Je begint weer bij 80 berichten.

Is GPT-4o beter dan Gemini 1.5 Pro?

Dat is een behoorlijk moeilijke vraag om te beantwoorden, maar GPT-4o heeft veel te bieden. Hoewel Gemini1.5 pro een veel groter contextvenster heeft, lijkt het erop dat GPT-4o veel beter is in begrip en redenering. Een bedrijf maakte een vergelijking tussen de twee modellen, waarbij het beide modellen bepaalde logische vragen stelde en hen ook vroeg om beelden vast te stellen. In totaal zijn er acht vragen gesteld. Gemini 1.5 Pro versloeg GPT-4o in geen van de vragen.

GPT-4o versloeg Gemini echter met zes van de acht vragen. Voor de twee vragen waarop GPT-4o Gemini niet versloeg, hadden beide modellen één goed en beide modellen één fout. Dus in termen van redeneren en probleemoplossing lijkt het erop dat GPT-4o behoorlijk ver voorloopt op Gemini.

GPT-4o in de toekomst

Op dit moment wachten we nog steeds op een paar functies die op het nieuwe model verschijnen. Deze omvatten enkele stem- en zichtfuncties, dus als u daarop wacht, zult u geduld moeten hebben.

Daarnaast verwachten we de komende maanden een typische reeks verbeteringen, zoals beter redeneren, snellere verwerking, enz.. We weten niet zeker of dit de volgende stap vóór GPT-5 zal zijn. Dat valt echter nog te bezien.

Thijs Van der Does