BitcoinWorld
AI-termen Waar Iedereen Instemmend Bij Knikt: Een Praktische Woordenlijst
Kunstmatige intelligentie hervormt industrieën, maar heeft ook een dicht nieuw vocabulaire gecreëerd dat zelfs ervaren technologen kan doen worstelen om bij te blijven. Termen als LLM, RAG, RLHF en diffusie verschijnen voortdurend in koppen, productaankondigingen en bestuurskamerdiscussies — maar hun precieze betekenis blijft vaak onduidelijk. Deze woordenlijst, samengesteld en regelmatig bijgewerkt door ons redactieteam, wil heldere, feitelijke definities bieden voor de belangrijkste AI-termen. Het is ontworpen als een levende referentie die evolueert samen met de technologie die het beschrijft.
AGI (Artificial General Intelligence) blijft een van de meest besproken termen in het vakgebied. Hoewel definities variëren, verwijst het over het algemeen naar AI-systemen die menselijke capaciteiten over een breed scala aan taken evenaren of overtreffen. Het handvest van OpenAI beschrijft het als "highly autonomous systems that outperform humans at most economically valuable work," terwijl Google DeepMind het omschrijft als "AI that's at least as capable as humans at most cognitive tasks." Het ontbreken van één overeengekomen definitie onderstreept hoe speculatief en ambitieus het concept blijft, zelfs onder toonaangevende onderzoekers.
Inferentie is het proces van het uitvoeren van een getraind AI-model om voorspellingen of uitvoer te genereren. Het verschilt van training, de rekenintensieve fase waarbij een model patronen uit gegevens leert. Inferentie kan plaatsvinden op een breed scala aan hardware, van smartphoneprocessors tot cloudgebaseerde GPU-clusters, maar de snelheid en kosten van inferentie variëren sterk afhankelijk van modelgrootte en infrastructuur.
Tokens zijn de fundamentele communicatie-eenheden tussen mensen en grote taalmodellen (LLM's). Ze vertegenwoordigen afzonderlijke tekstfragmenten — vaak delen van woorden — die het model verwerkt. Tokenisatie overbrugt de kloof tussen natuurlijke taal en de numerieke bewerkingen die AI-systemen uitvoeren. In zakelijke omgevingen bepaalt het aantal tokens ook de kosten, omdat de meeste AI-bedrijven per token factureren.
Training houdt in dat enorme hoeveelheden gegevens aan een machine learning-model worden gevoerd zodat het patronen kan herkennen en zijn uitvoer kan verbeteren. Dit proces is duur en resource-intensief en vereist gespecialiseerde hardware en grote datasets. Fine-tuning neemt een vooraf getraind model en traint het verder op een smallere, taakspecifieke dataset, waardoor bedrijven algemene modellen kunnen aanpassen voor gespecialiseerde toepassingen zonder helemaal opnieuw te beginnen.
Reinforcement learning is een trainingsparadigma waarbij een model leert door vallen en opstaan en beloningen ontvangt voor correcte acties. Deze aanpak heeft zich bewezen als bijzonder effectief voor het verbeteren van redeneren in LLM's, met name via technieken zoals reinforcement learning from human feedback (RLHF), dat modeluitvoer afstemt op menselijke voorkeuren voor behulpzaamheid en veiligheid.
Distillatie is een techniek waarbij een kleiner "student"-model wordt getraind om het gedrag van een groter "leraar"-model na te bootsen. Dit kan efficiëntere, snellere modellen opleveren met minimaal prestatieverlies. OpenAI gebruikte waarschijnlijk distillatie om GPT-4 Turbo te maken, een snellere versie van GPT-4. Het gebruik van distillatie op het model van een concurrent schendt echter doorgaans de servicevoorwaarden.
Neurale netwerken zijn de meerlaagse algoritmische structuren die ten grondslag liggen aan deep learning. Geïnspireerd door de onderling verbonden paden van het menselijk brein zijn deze netwerken enorm krachtiger geworden met de komst van moderne GPU's, die duizenden berekeningen parallel kunnen uitvoeren. Parallelisatie — het gelijktijdig uitvoeren van vele berekeningen — is fundamenteel voor zowel training als inferentie en is een belangrijke reden waarom GPU's de hardwareruggegraat van de AI-industrie zijn geworden.
Compute is een verkorte term voor de rekenkracht die nodig is om AI-modellen te trainen en uit te voeren. Het omvat de hardware — GPU's, CPU's, TPU's — en de infrastructuur die de industrie aandrijft. De term verschijnt vaak in discussies over kosten, schaalbaarheid en de milieu-impact van AI.
Geheugencache (specifiek KV-caching in transformatormodellen) is een optimalisatietechniek die de inferentie-efficiëntie verhoogt door eerder berekende resultaten op te slaan, waardoor de noodzaak om ze opnieuw te berekenen voor elke nieuwe query wordt verminderd. Dit versnelt responstijden en verlaagt operationele kosten.
AI-agents vertegenwoordigen een verschuiving van eenvoudige chatbots naar autonome systemen die meerstaps taken namens een gebruiker kunnen uitvoeren, zoals reizen boeken, onkosten indienen of code schrijven. Codeeragents zijn een gespecialiseerde subset die autonoom code kan schrijven, testen en debuggen en iteratief ontwikkelwerk afhandelt met minimaal menselijk toezicht. De infrastructuur voor agents wordt nog steeds gebouwd en definities variëren per sector.
Diffusie is de technologie achter vele beeld-, muziek- en tekstgeneratiemodellen. Geïnspireerd door de fysica leren diffusiesystemen een proces van het toevoegen van ruis aan gegevens om te keren, waardoor ze nieuwe, realistische uitvoer kunnen genereren vanuit willekeurige ruis. GAN's (Generative Adversarial Networks) gebruiken een andere aanpak door twee neurale netwerken tegen elkaar uit te spelen — een generator en een discriminator — om steeds realistischere uitvoer te produceren, met name in deepfakes en synthetische media.
RAMageddon is een informele term die het acute tekort aan RAM-chips beschrijft, aangedreven door de onverzadigbare vraag naar geheugen in datacenters van de AI-industrie. Dit tekort heeft de prijzen verhoogd in consumentenelektronica, spelconsoles en bedrijfscomputers, zonder directe verlichting in zicht.
Het begrijpen van deze termen is niet langer optioneel voor professionals in technologie, bedrijfsleven en beleid. Naarmate AI wordt ingebed in producten, diensten en besluitvorming, maakt een gedeeld vocabulaire duidelijkere communicatie, beter geïnformeerd debat en betere strategische beslissingen mogelijk. Deze woordenlijst wordt regelmatig bijgewerkt naarmate het vakgebied evolueert, met nieuwe ontwikkelingen en verfijningen in hoe de industrie zijn eigen werk beschrijft.
V1: Wat is het verschil tussen training en inferentie?
Training is het proces van het invoeren van gegevens aan een model zodat het patronen leert, wat rekenintensief en duur is. Inferentie is het proces van het uitvoeren van het getrainde model om uitvoer of voorspellingen te genereren, wat op een breder scala aan hardware kan plaatsvinden en doorgaans sneller en goedkoper is.
V2: Wat betekent 'open source' in de context van AI-modellen?
Open source AI-modellen, zoals Meta's Llama-familie, hebben hun onderliggende code en soms gewichten openbaar beschikbaar gesteld voor inspectie, wijziging en hergebruik. Closed source-modellen, zoals de GPT-serie van OpenAI, houden de code privé. Dit onderscheid staat centraal in debatten over transparantie, veiligheid en toegang in AI-ontwikkeling.
V3: Waarom is 'hallucinatie' een probleem in AI?
Hallucinatie verwijst naar AI-modellen die onjuiste of verzonnen informatie genereren. Het ontstaat door hiaten in trainingsgegevens en kan leiden tot misleidende of gevaarlijke uitvoer, met name in risicovolle domeinen zoals gezondheidszorg of financiën. Het wekt interesse in meer gespecialiseerde, domeinspecifieke AI-modellen die minder gevoelig zijn voor kennishiaten.
This post AI Terms Everyone Nods Along To: A Practical Glossary first appeared on BitcoinWorld.


