Als je de laatste tijd online tijd online hebt doorgebracht, heb je waarschijnlijk veel “nieuwe” AI-gerelateerde woorden gehoord die rond worden gegooid: LLM, generatieve AI, neuraal netwerk en vele anderen. Deze termen kunnen klinken als iets rechtstreeks uit een sci-fi-film. Ze maken echter eigenlijk deel uit van een nieuwe taal die net zo gewoon wordt als praten over apps en sociale media.
Kunstmatige intelligentie is niet langer een onderwerp alleen voor onderzoekers en insiders uit de industrie. Meer en meer “normale” gebruikers zijn geïnteresseerd in springen op de AI -bandwagon. Of u nu een nieuwsartikel probeert te begrijpen, u wilt een nieuwe AI -tool uitproberen, of u bent gewoon benieuwd naar de toekomst, wetende dat de basis een enorme hulp is.
We zullen 61 van de belangrijkste termen afbreken, die van de basisprincipes die iedereen moet kennen, naar de meer specifieke taal voor degenen die een beetje dieper willen graven, afbreken.
De kernconcepten: de bouwstenen van AI
Laten we beginnen met het grote geheel. Dit zijn de termen die je bijna overal zult zien.
Kunstmatige intelligentie (AI): De breedste en meest algemene term. AI is een technologie die menselijke intelligentie kan ‘simuleren’, waardoor systemen kunnen worden geleerd, probleemoplossing en besluitvormingsmogelijkheden.
Machine learning (ml): Een belangrijk onderdeel van AI. ML is het trainingsproces van een computer om van gegevens te leren zonder expliciet te worden geprogrammeerd voor elk mogelijk scenario. U geeft het gegevens en deze bedenkt de patronen en regels op zichzelf.
Deep Learning (DL): Een gespecialiseerde vorm van ML. Het maakt gebruik van complexe structuren genaamd neurale netwerken om gegevens in veel lagen te verwerken, net als een menselijk brein. Diep leren zit achter enkele van de meest indrukwekkende AI -tools die we vandaag hebben.
Neuraal netwerk: De onderliggende structuur van een diep leermodel. Het is een reeks onderling verbonden lagen “knooppunten” die samenwerken om informatie te verwerken, waarbij elke laag de gegevens verfijnt. Het is gebaseerd op het functioneren van het menselijk brein.
Generatieve AI (GenAI): Een AI die nieuwe, originele inhoud kan maken. Dit omvat alles, van essays en verhalen tot afbeeldingen, muziek en computercode.
Voorspellende AI: Een AI die gegevens gebruikt om een voorspelling te maken over de toekomst. Een voorspellende AI kan bijvoorbeeld winkelgegevens analyseren om te voorspellen welke producten volgend seizoen populair zullen zijn.
Natuurlijke taalverwerking (NLP): Het veld van AI waarmee computers menselijke taal kunnen begrijpen, interpreteren en genereren. Wanneer u een chatbot of een spraakassistent gebruikt, ervaart u NLP in actie. Het verwijdert de “robottaal” -barrière die rigide opdrachten vereist.
Computervisie: Het veld van AI waarmee computers visuele informatie uit afbeeldingen en video’s kunnen ‘zien’ en interpreteren. Dit wordt gebruikt in alles, van gezichtsherkenning tot zelfrijdende auto’s.
Snel: Dit is eigenlijk wat je tegen een AI zegt. Het is de tekst of opdracht die u in een chatbot typt om deze een reactie te krijgen. Een goede prompt is vaak de sleutel om een goed antwoord te krijgen.
Groot taalmodel (LLM): De technologie achter vele generatieve AI’s. Een LLM is een krachtig AI -model dat is getraind op een enorme hoeveelheid tekstgegevens. Tools zoals Chatgpt en Gemini zijn voorbeelden van LLMS. Eindgebruikers nemen meestal hun toevlucht tot cloud computing om ze uit te voeren, omdat LLMS vrij krachtige – en duur – Hardware vereist om lokaal te worden uitgevoerd.
Klein taalmodel (SML): Vergelijkbaar met LLM, maar getraind met veel minder parameters en minder gegevens. Ze zijn ontworpen om lokaal te lopen op apparaten met low-power. De Gemini Nano is bijvoorbeeld aanwezig op meerdere Android -telefoons. SML’s maken AI-aangedreven functies mogelijk, zoals tekstsamenvatting, schrijfhulp en basis generatieve beeldbewerking, onder andere.
Hallucinatie: Een eigenzinnige maar belangrijke term. Wanneer een AI ‘hallucineert’, geeft het een zelfverzekerd klinkend antwoord dat helemaal verkeerd of onzinnig is.
Deepfake: Een synthetische video, audio of afbeelding van een persoon die er zo echt uitziet of klinkt dat het moeilijk kan zijn om te vertellen dat het nep is.
De trainingsgrond: hoe AI -modellen zijn gebouwd
Deze termen verklaren het proces van het maken en trainen van een AI -model.
Model: Het getrainde algoritme zelf. Het is het bestand of het programma dat de “kennis” van de AI bevat en klaar is om voorspellingen te doen of inhoud te genereren. Er zijn modellen voor specifieke taken, zoals Google’s ImageN (GenAI voor foto’s) en Veo (GenAI voor video’s).
Dataset: De hele verzameling trainingsgegevens die worden gebruikt om een AI te onderwijzen. Het is de bibliotheek met informatie waar het model van leert.
Modelopleiding: Het hele proces van het voeden van een AI -model met gegevens om het een specifieke taak te leren.
Begeleid leren: Een trainingsmethode waarbij de AI een gelabelde gegevensset krijgt. Het is als een student met een leraar: de gegevens hebben antwoorden en de AI leert door zijn voorspellingen te matchen met de juiste.
Zonder toezicht leren: Een trainingsmethode waarbij de AI niet -gelabelde gegevens krijgt en op zichzelf verborgen patronen moet vinden. Het is alsof je een student een stapel foto’s geeft en hen vraagt om ze in groepen te organiseren.
Versterking leren: Een trainingsmethode waarbij de AI leert door vallen en opstaan. Vervolgens ontvangt het “beloningen” voor correcte acties en “straffen” voor verkeerde. Het is hoe AI kan leren een spel te spelen, zoals schaken of gaan, en beter worden met oefening.
Zero-shot leren: Het vermogen van een AI -model om een taak uit te voeren waarop het niet expliciet was opgeleid, puur gebaseerd op zijn brede begrip van zijn trainingsgegevens.
Weinigen-shot leren: Het vermogen van een AI -model om een nieuwe taak te leren uit slechts een klein aantal voorbeelden.
Gegevensdistillatie: Een techniek die wordt gebruikt om kennis over te dragen van een groot, complex model (de “leraar”) naar een kleinere, efficiëntere (de “student”). Hiermee kunnen kleinere modellen de prestaties van grotere repliceren, maar met een betere efficiëntie en minder bronnen.
Synthetische gegevens: Kunstmatig gegenereerde informatie die de statistische eigenschappen van gegevens uit de praktijk nabootst, maar geen echte informatie over praktische informatie bevat. Het is handig om AI -modellen te trainen, testen en te valideren, vooral wanneer echte gegevens schaars of duur/onmogelijk te verkrijgen zijn.
Verfijning: Het proces van het nemen van een vooraf getraind model en het trainen op een kleinere, meer specifieke dataset om het beter te maken bij een bepaalde taak.
Overfitting: Een probleem dat optreedt wanneer een model de trainingsgegevens ’te goed’ leert, onthouden van specifieke voorbeelden in plaats van de algemene patronen te begrijpen. Dit zorgt ervoor dat het model slecht presteert op nieuwe gegevens.
Gevolgtrekking: Het proces van het gebruik van een getraind AI -model om een voorspelling te maken of nieuwe inhoud te genereren uit nieuwe, ongeziene gegevens.
Vooroordeel: Een systematische fout in een AI -systeem dat leidt tot oneerlijke of onnauwkeurige resultaten. Dit gebeurt vaak wanneer de trainingsgegevens niet representatief zijn voor de echte wereld.
Retrieval-Augmented Generation (RAG): Een techniek waarmee een LLM toegang heeft tot en externe kennisbases kan gebruiken om meer accurate en up-to-date informatie te bieden, waardoor hallucinaties worden verminderd.
The Chatbot Lingo: Praten met AI
Deze termen zijn vooral handig wanneer u interactie hebt met een conversatie -AI.
Snelle engineering: De kunst en wetenschap van het maken van effectieve aanwijzingen om de best mogelijke reactie van een AI -model te krijgen.
Snelle ketens: Mogelijkheid om meerdere aanwijzingen in een reeks aan elkaar te koppelen. De uitvoer van de ene prompt wordt gebruikt als invoer voor de volgende.
Contextvenster: De hoeveelheid informatie die een AI -model kan “onthouden” of in één keer kunnen overwegen bij het genereren van een reactie. Als een gesprek te lang doorgaat, kan de AI vergeten wat u in het begin zei.
Token: De kleinste eenheid van gegevens en een AI -model verwerkt. In tekst kan een token een woord, een onderdeel van een woord of zelfs een interpunctiemerk zijn.
Temperatuur: Een instelling die bepaalt hoe ‘creatief’ of willekeurig een AI -reactie is. Een hoge temperatuur leidt tot meer gevarieerde en onvoorspelbare antwoorden, terwijl een lage temperatuur de respons voorspelbaarder en conservatiever maakt.
Agenten: AI-systemen die zelf complexe, multi-step-taken kunnen uitvoeren, vaak zonder constant menselijk toezicht. Een agent kan bijvoorbeeld een vlucht voor u boeken door te communiceren met meerdere websites.
Dieper gaan: de technische en geavanceerde voorwaarden
Als u wilt begrijpen wat er onder de motorkap gebeurt, geven deze voorwaarden u een kijkje in de mechanica van AI -modellen.
Parameters: De interne instellingen of variabelen die een AI -model tijdens de training aanpast. U kunt meestal de grootte van een LLM meten met het aantal parameters. Een LLM met minder dan 10 miljard parameters wordt beschouwd als een SML.
Vectorinbedding: Een manier om woorden, afbeeldingen en andere gegevens weer te geven als numerieke vectoren. Hierdoor kan een AI de relaties en overeenkomsten tussen verschillende stukjes informatie begrijpen.
Algoritme: De set regels of instructies die een model volgt om van gegevens te leren.
Backpropagatie: Een kernalgoritme dat wordt gebruikt in diep leren om een neuraal netwerk op te leiden. Het gaat om achteruit te werken via het netwerk om de gewichten van de verbindingen aan te passen, waardoor de nauwkeurigheid wordt verbeterd.
Gewichten: De waarden die een neuraal netwerk toewijst aan zijn verbindingen. Deze gewichten bepalen het belang van de input en worden tijdens de training aangepast.
Lagen: De verschillende niveaus van een neuraal netwerk. Informatie stroomt van een invoerlaag, via een of meer verborgen lagen, naar een uitvoerlaag.
Aandachtsmechanisme: Een techniek waarmee een model zich kan concentreren op de belangrijkste onderdelen van de invoergegevens bij het genereren van een reactie. Het is cruciaal voor de prestaties van grote taalmodellen.
Transformator: Een specifiek type neurale netwerkarchitectuur dat het aandachtsmechanisme gebruikt om opeenvolgende gegevens te verwerken. Het is ongelooflijk effectief voor taken zoals taalvertaling en -generatie.
Versterking leren met menselijke feedback (RLHF): Een trainingsmethode die menselijke voorkeuren gebruikt om het gedrag van een AI-model te verfijnen. Dit maakt het nuttiger en afgestemd op menselijke waarden.
Generatieve tegenstanders (GAN’s): Een soort generatieve AI die twee concurrerende neurale netwerken gebruikt – een om inhoud te maken en een andere om te proberen te vinden als het nep is – om ongelooflijk realistische afbeeldingen en video’s te maken.
Latentie: De tijd die nodig is om een AI -model te verwerken en een reactie te genereren. Lagere latentie betekent snellere resultaten.
Modelafwijking: Een fenomeen waarbij de prestaties van een AI-model in de loop van de tijd langzaam afbreken als de gegevens uit de echte wereld verandert.
Uitlegbare AI (XAI): Een veld van AI die zich toelegt op het maken van de besluitvormingsprocessen van AI-modellen transparanter en begrijpelijker voor mensen.
Afbeelding genereren: Het proces van het gebruik van AI om nieuwe afbeeldingen helemaal opnieuw te maken, vaak van een tekstprompt.
Tekst-tot-beeld: Een specifiek type generatieve AI dat een afbeelding maakt op basis van een tekstprompt.
Tekst-naar-spraak (TTS): De technologie die geschreven tekst omzet in gesynthetiseerde spraak.
Spraakherkenning (STT): De technologie die gesproken taal omzet in tekst.
Sentimentanalyse: Het proces van het gebruik van AI om de emotionele toon of mening te bepalen die wordt uitgedrukt in een stuk tekst, zoals in een commentaar op sociale media of klantbeoordeling.
Robotica: Een veld dat AI combineert met fysieke machines om robots te maken die taken in de echte wereld kunnen uitvoeren.
Natural Language begrip (NLU): Een subset van NLP (natuurlijke taalverwerking) die zich specifiek richt op het vermogen van een computer om de betekenis achter de menselijke taal te begrijpen, inclusief context en intentie.
Generatie van natuurlijke taal (NLG): Een subset van NLP die zich richt op het vermogen van een computer om mensachtige tekst uit gegevens te genereren.
Application Programming Interface (API): Een set regels en protocollen waarmee twee verschillende softwareprogramma’s, zoals een website en een AI -model, met elkaar kunnen communiceren.
GPU (grafische verwerkingseenheid): Een gespecialiseerde processor die ongelooflijk goed is in het verwerken van de parallelle berekeningen die nodig zijn voor het trainen van AI -modellen.
Algoritme: De set regels of instructies die een model volgt om van gegevens te leren.
Kunstmatige algemene intelligentie (AGI): Een hypothetische vorm van AI die het vermogen zou bezitten om kennis te begrijpen, te leren en toe te passen op een breed scala aan taken op een mensachtig niveau, vergelijkbaar met een menselijk brein.
Tokenisatie: Het proces van het afbreken van een reeks tekst in kleinere, beheersbare eenheden die tokens worden genoemd voor een AI -model om te verwerken.
Chatbot: Een softwaretoepassing die een gesprek kan voeren met een mens die tekst of stem gebruikt.
Welkom en geniet van uw AI -reizen
Met deze voorwaarden ben je meer dan klaar om te navigeren door de snelle wereld van AI. Deze technologie is een krachtig hulpmiddel en het begrijpen van de taal is de eerste stap om het effectief en verantwoord te gebruiken.