Glossary
A
AGI
AGI staat voor 'Artificial General Intelligence', oftewel Kunstmatige Algemene Intelligentie in het Nederlands. Dit is een vorm van AI die in staat is om intellectuele taken uit te voeren die normaal gesproken menselijke intelligentie vereisen, zoals probleemoplossen en leren. Anders dan de meeste huidige AI, die ontworpen is voor specifieke taken (bekend als 'narrow AI' of 'zwakke AI'), kan AGI zich aanpassen en leren in een breed scala van gebieden, net als een mens.
AI
AI staat voor kunstmatige intelligentie, wat verwijst naar computersystemen die taken kunnen uitvoeren die normaal menselijke intelligentie vereisen. Dit omvat zaken als praten, beslissingen nemen, en objecten herkennen. Kunstmatige intelligentie kan ons leven op veel manieren makkelijker maken, zoals door slimme assistenten zoals Alexa.
AI assistent
Een AI assistent, of kunstmatige intelligentie assistent, is een computerprogramma ontworpen om gebruikers te helpen bij dagelijkse taken zoals e-mails beantwoorden, agenda's beheren, of informatie opzoeken op het internet. Deze assistenten leren van de interacties met de gebruiker om hun reacties en hulp steeds beter af te stemmen op de behoeften van de gebruiker.
AI chips
AI chips zijn speciale soorten processors ontworpen om de berekeningen voor kunstmatige intelligentie toepassingen efficiënter te verwerken. Ze zijn geoptimaliseerd voor taken zoals het leren van neurale netwerken en andere intensieve data verwerkingen die nodig zijn voor AI operaties, waardoor AI toepassingen sneller en efficiënter kunnen werken.
AI systemen
AI systemen zijn computerprogramma's of machines die taken kunnen uitvoeren die normaal gesproken menselijke intelligentie vereisen, zoals het verwerken van natuurlijke taal, het herkennen van patronen in gegevens of het maken van beslissingen. Deze systemen worden steeds vaker gebruikt op verschillende gebieden, zoals in klantenservice, gezondheidszorg, en onderwijs.
AI training
AI training verwijst naar het proces waarbij een AI model leert door voorbeelden en ervaringen. Tijdens de training wordt het AI model blootgesteld aan grote hoeveelheden trainingsdata, waardoor het patronen leert herkennen en beslissingen kan maken of taken kan uitvoeren vergelijkbaar met hoe mensen dat zouden doen.
Algoritme
Een algoritme is een reeks instructies of regels ontworpen om een specifiek probleem op te lossen of een bepaalde taak uit te voeren. In de context van AI verwijst dit meestal naar de computerprogramma's die zelflerend zijn en hun prestaties kunnen verbeteren naarmate ze meer gegevens verwerken.
Apache 2.0 licentie
De Apache 2.0 licentie is een open softwarelicentie die gebruikers veel vrijheid biedt, inclusief het recht om de software te gebruiken, te kopiëren, aan te passen en te verspreiden, ook voor commerciële doeleinden, met weinig beperkingen.
API
Een API, of Application Programming Interface, is een set regels en definities waarmee softwareprogramma's met elkaar kunnen communiceren. In de context van een AI model zoals DeepSeek Coder, stelt een API ontwikkelaars in staat om het taalmodel te gebruiken zonder dat ze de onderliggende complexiteit hoeven te begrijpen. Ze kunnen eenvoudig verzoeken sturen naar het model en krijgen vervolgens de gewenste output terug.
Architectuur
In AI-termen verwijst 'architectuur' naar de opzet en structuur van een AI model. Dit omvat hoe het model is gebouwd, hoe de verschillende delen met elkaar communiceren en hoe data door het model wordt verwerkt. Een goed ontworpen architectuur is cruciaal voor efficiënte en effectieve AI.
Auto-regressief taalmodel
Een auto-regressief taalmodel is een soort model in kunstmatige intelligentie dat gebruikt wordt voor het genereren van tekst. Deze modellen produceren tekst sequentieel, waarbij elke volgende token (een stukje tekst zoals een woord of teken) wordt gegenereerd op basis van de voorafgaande tokens. Dit betekent dat het volgende woord in een zin wordt gekozen op basis van de woorden die al zijn geschreven, een proces dat lijkt op hoe mensen natuurlijk taal produceren.
Autonome agents
Autonome agents in de context van AI zijn softwareprogramma's die zelfstandig taken kunnen uitvoeren zonder menselijke tussenkomst. Ze kunnen bijvoorbeeld financiële markten analyseren en op basis van die analyse zelfstandig beslissingen maken om te handelen. Deze agents leren van data om hun prestaties over tijd te verbeteren.
B
Benchmark
Een benchmark in de context van AI en programmeren is een gestandaardiseerde test die wordt gebruikt om de prestatie van een systeem of model te beoordelen. Het laat zien hoe goed het systeem bepaalde taken kan uitvoeren in vergelijking met andere systemen of eerdere versies. Dit kan helpen bij het evalueren van de effectiviteit van verschillende AI modellen bij het uitvoeren van specifieke taken, zoals het genereren van code.
Black box
In de context van AI refereert de term 'black box' naar systemen waarvan de interne werking moeilijk te begrijpen is. Dat wil zeggen, we kunnen de input (gegevens die het systeem in gaan) en de output (de beslissing of actie die het systeem genereert) zien, maar het is lastig te achterhalen hoe of waarom het systeem tot een bepaalde conclusie is gekomen.
C
Chain of thought
Chain of thought refereert aan een techniek bij AI modellen waarbij het proces om tot een conclusie of antwoord te komen in stapjes wordt uitgevoerd, vergelijkbaar met hoe een mens zou redeneren. Dit helpt vooral bij complexe vragen of problemen, omdat het model zijn 'denkwijze' opbreekt in kleinere, makkelijker te begrijpen delen.
Chatbot
Een chatbot is een computerprogramma dat gesprekken kan voeren met mensen, bijvoorbeeld via tekst of spraak. Het wordt veel gebruikt voor klantenservice of informatieverstrekking. In dit geval helpt de chatbot federale medewerkers met vragen over regelgeving en procedures.
Cloud
De cloud verwijst naar het gebruik van externe servers op het internet om gegevens op te slaan en te verwerken, in plaats van op lokale computers of servers. Het maakt data en rekenkracht toegankelijk op afstand en staat centraal in veel moderne AI-systemen.
Cognitive checkpoints
Cognitive checkpoints zijn controlepunten in een AI systeem die ervoor zorgen dat de beslissingen niet alleen gebaseerd zijn op data-analyse, maar ook op een bepaalde vorm van begrip of context over waarom acties worden ondernomen. Dit helpt om een dieper niveau van besluitvorming te ontwikkelen dat rekening houdt met meer dan alleen numerieke indicatoren.
Contextbewustheid
Contextbewustheid in AI verwijst naar het vermogen van een systeem om de context waarin het wordt gebruikt te begrijpen en te interpreteren. Dit stelt het systeem in staat om meer relevante en gepersonaliseerde reacties of acties te bieden, gebaseerd op de situatie.
contextcapaciteit
Contextcapaciteit in de wereld van AI verwijst naar het vermogen van een model om de context of samenhang te begrijpen en te onthouden over een reeks van tokens of datapunten. Bij tekstverwerking betekent dit bijvoorbeeld hoeveel van de tekst het model kan 'onthouden' en gebruiken om zijn taken uit te voeren.
Conversationele AI
Een vorm van kunstmatige intelligentie die het mogelijk maakt voor machines om op natuurlijke wijze met mensen te converseren. Dit kan via geschreven tekst of gesproken woord en wordt veel toegepast in chatbots en virtuele assistenten.
D
Datacenters
Een datacenter is een fysieke faciliteit die organisaties gebruiken om grote hoeveelheden computer servers en gerelateerde apparatuur te huisvesten. Deze centra zijn essentieel voor het opslaan, verwerken en distribueren van grote hoeveelheden data. Ze spelen een cruciale rol in het ondersteunen van internetdiensten, cloudopslag, en natuurlijk, kunstmatige intelligentie operaties.
Dataset
Een dataset is een verzameling van gegevens die gebruikt wordt om AI modellen te trainen. Deze datasets kunnen bestaan uit tekst, afbeeldingen, video's of andere data typen. Het doel van een dataset is om het AI model een breed scala aan voorbeelden te geven om van te leren.
Deep learning
Deep learning is een geavanceerde techniek binnen het gebied van machine learning, waarbij gebruik wordt gemaakt van grote neuralenetwerken met vele lagen. Deze methode is geïnspireerd op de werking van het menselijk brein en is bijzonder goed in het herkennen van patronen in grote hoeveelheden data, wat het nuttig maakt voor taken zoals beeld- en spraakherkenning.
DeepMind
DeepMind is een bedrijf dat gespecialiseerd is in kunstmatige intelligentie. Ze staan bekend om hun geavanceerde AI-systemen en onderzoek. DeepMind is vooral beroemd geworden door het ontwikkelen van AI's die in staat zijn complexe spellen te spelen en te winnen van menselijke kampioenen, zoals bij het spel Go. Hun werk richt zich op het creëren van AI die kan leren en zichzelf kan verbeteren, wat belangrijke stappen zijn in de ontwikkeling van intelligentere systemen.
Diffusion Large Language Model (dLLM)
Een Diffusion Large Language Model (dLLM) is een geavanceerd type taalmodel in kunstmatige intelligentie dat gebruikmaakt van diffusietechnieken om taal te genereren. In tegenstelling tot traditionele modellen die tekst sequentieel produceren, werken dLLMs door tokens parallel te genereren, wat resulteert in snellere en mogelijk efficiëntere tekstcreatie. Het idee is vergelijkbaar met technieken gebruikt in beeldgeneratiemodellen, waarbij begonnen wordt met een soort 'ruis' die systematisch wordt omgevormd tot coherente tekst.
Duurzaamheid
In de context van AI, houdt duurzaamheid in dat de ontwikkeling en implementatie van AI-systemen op een manier gebeuren die lange-termijn ecologische, economische en sociale welvaart ondersteunt, zonder het verbruik van natuurlijke hulpbronnen te overtreffen of schade aan de omgeving te veroorzaken. Dit kan ook betekenen dat AI wordt ingezet om duurzaamheidsdoelen te bereiken, bijvoorbeeld door energieverbruik te optimaliseren of het monitoren van klimaatverandering.
E
Explainable AI
Explainable AI, of uitlegbare AI, verwijst naar technieken en methodes die ervoor zorgen dat de werking en beslissingen van AI systemen begrijpelijk zijn voor mensen. Dit is belangrijk om vertrouwen in AI systemen te bouwen en te zorgen voor transparantie, met name in kritieke toepassingen zoals in de gezondheidszorg, financiële dienstverlening en retail.
Externe databronnen
Externe databronnen verwijzen naar alle soorten data die van buitenaf een AI systeem of model beïnvloeden. Dit kan variëren van gegevens uit online databases, sensoren, API's (Application Programming Interfaces) tot sociale media feeds.
F
Fair use
Fair use, oftewel 'redelijk gebruik', is een juridisch principe dat het mogelijk maakt om auteursrechtelijk beschermd materiaal te gebruiken zonder toestemming van de rechthebbende, onder bepaalde voorwaarden. Dit principe kan van toepassing zijn op AI training, waarbij AI modellen data analyseren om te leren, zonder dat dit als inbreuk op auteursrecht wordt gezien.
Foundation model
Een 'foundation model' is een basis AI model dat is ontworpen om een breed scala aan taken uit te voeren. Het idee is dat ontwikkelaars dit model als fundament kunnen gebruiken en aanpassen voor specifieke toepassingen of taken. Je kunt het zien als een algemeen bouwblok voor AI dat specifiek getraind kan worden om verschillende, meer gespecialiseerde vaardigheden te krijgen.
G
GAIA benchmark
De GAIA benchmark is een test ontworpen om de capaciteiten van AI systemen te evalueren, met name hoe goed ze kunnen redeneren, multimodale data verwerken, en externe hulpmiddelen gebruiken.
Gebarenherkenning
Gebarenherkenning is een technologie die het mogelijk maakt voor apparaten om menselijke gebaren, zoals zwaaien, knipogen of hoofdbewegingen, te detecteren en interpreteren als commando's. Dit maakt een nieuwe, intuïtieve manier van interactie met technologie mogelijk.
Generative AI (GenAI)
Generatieve AI is een vorm van kunstmatige intelligentie die nieuwe content kan creëren, zoals tekst, afbeeldingen of muziek, gebaseerd op de data waarmee het getraind is. Dit type AI kan bijvoorbeeld worden gebruikt om antwoorden te genereren op basis van eerder verzamelde kennis.
GPT
GPT (Generative Pre-trained Transformer) is een type AI dat in staat is om menselijke taal na te bootsen. Het kan teksten genereren, vragen beantwoorden, en veel andere taken uitvoeren door te 'leren' van enorme hoeveelheden tekstdata. Een makkelijke manier om het te zien is als een zeer geavanceerde chatbot die door veel oefening heel goed heeft geleerd hoe mensen praten en schrijven.
GPT-4
GPT-4 staat voor Generative Pre-trained Transformer 4, de vierde versie van een reeks geavanceerde taalmodellen ontwikkeld door OpenAI. Deze versie is nog krachtiger dan zijn voorgangers, waardoor het complexere taken kan uitvoeren, meer natuurlijke gesprekken kan voeren en nauwkeurigere resultaten kan bieden. Het is een voorbeeld van de snelle vooruitgang in de ontwikkeling van kunstmatige intelligentie.
GPT-4.5
GPT-4.5 is een versie van een AI model ontwikkeld door OpenAI. Het staat voor 'Generative Pre-trained Transformer 4.5' en is een geavanceerd model dat teksten kan begrijpen en genereren op een manier die natuurlijker aanvoelt dan zijn voorgangers. Dit model maakt gebruik van enorme hoeveelheden data en leertechnieken om meer als een mens te klinken en te denken.
Graphics Processing Unit (GPU)
GPU staat voor 'Graphics Processing Unit' en is een gespecialiseerde processor die oorspronkelijk ontworpen is om beelden te renderen en te bewerken voor beeldschermapparaten. In de context van AI worden GPU's gebruikt om de complexe berekeningen uit te voeren die nodig zijn voor het trainen en uitvoeren van AI-modellen vanwege hun vermogen om tegelijkertijd meerdere berekeningen uit te voeren.
H
Hugging Face
Hugging Face is een bedrijf dat bekend staat om zijn bijdragen aan de AI-gemeenschap, inclusief het ontwikkelen en hosten van state-of-the-art machine learning modellen. Hun platform stelt onderzoekers en ontwikkelaars in staat om AI modellen te delen, te ontdekken en er samen aan te werken. In de context van het Nvidia-initiatief, biedt Hugging Face toegang tot trainingsmaterialen en beoordelingsscenario's, wat ontwikkeling en samenwerking in de wereld van AI bevordert.
Hugging Face Transformers
Hugging Face Transformers is een populaire bibliotheek van voorgetrainde modellen die ontwikkelaars kunnen gebruiken om natuurlijke taalverwerking (NLP) taken uit te voeren, zoals tekstvertaling, samenvatting en vraagbeantwoording. Deze bibliotheek maakt het gemakkelijker om met AI-modellen zoals Gemma 3 te werken en ze aan te passen aan specifieke behoeften.
L
Large Language Models (LLMs)
Grote taalmodellen zijn geavanceerde AI-systemen die enorme hoeveelheden tekst kunnen analyseren en begrijpen. Ze worden gebruikt om menselijke taal te genereren of te begrijpen en kunnen taken als vertalen, samenvatten en zelfs creatief schrijven uitvoeren.
M
Machine consciousness
Machinebewustzijn gaat over het idee of de mogelijkheid dat machines (zoals computers of robots) een vorm van bewustzijn of zelfbewustzijn kunnen ontwikkelen, vergelijkbaar met dat van mensen of dieren. Het is een concept dat sterk theoretisch is en zich op het snijvlak van AI-onderzoek, filosofie, en cognitieve wetenschappen bevindt.
Machine learning
Machine learning is een veld binnen AI dat zich richt op het ontwikkelen van algoritmes die computers in staat stellen te 'leren' van en te handelen op basis van data. Door ervaring worden deze systemen steeds beter in het uitvoeren van specifieke taken.
Machine learning modellen
Machine learning modellen zijn computerprogramma's die zichzelf kunnen verbeteren door ervaring (data-analyse) zonder expliciet geprogrammeerd te zijn voor specifieke taken. Ze analyseren grote hoeveelheden gegevens, leren patronen te herkennen en maken op basis daarvan voorspellingen of nemen beslissingen.
Model
In de context van AI verwijst een 'model' naar een soort computerprogramma dat getraind is om specifieke taken uit te voeren, zoals het vertalen van talen, het herkennen van afbeeldingen of het genereren van tekst. Deze modellen 'leren' van grote hoeveelheden data om accurate voorspellingen of besluiten te kunnen maken.
Model Context Protocol
Het Model Context Protocol is een nieuw ontwikkelde technologie bedoeld om AI modellen makkelijk te koppelen aan verschillende bronnen van data. Het werkt als een universele connector, vergelijkbaar met USB-C, maar dan voor datastromen naar AI systemen, waardoor diverse databronnen naadloos kunnen worden gecombineerd en gebruikt.
Multimodaal
Multimodale verwerking betekent dat een AI systeem meerdere soorten informatie tegelijk kan begrijpen en verwerken, zoals tekst, afbeeldingen en geluid.
N
Natural language processing (NLP)
Natural language processing (NLP) is een tak van kunstmatige intelligentie die zich bezighoudt met de interactie tussen computers en menselijke (natuurlijke) talen. Het stelt systemen in staat om menselijke taal in geschreven of gesproken vorm te begrijpen, interpreteren en genereren, wat nuttig is voor taken zoals sentimentanalyse in nieuwsberichten of sociale media.
Neural Processing Unit (NPU)
Een Neural Processing Unit (NPU) is een speciaal type microprocessor die is ontworpen voor het efficiënt uitvoeren van taken gerelateerd aan kunstmatige intelligentie, zoals het verwerken van neurale netwerken. Deze processor is geoptimaliseerd voor snelheid en efficiëntie bij AI taken, en wordt gebruikt om ervoor te zorgen dat de verwerking van gevoelige data, zoals gebaarherkenning, lokaal op het apparaat gebeurt voor meer privacy.
Neurale netwerken
Neurale netwerken zijn computermodellen die geïnspireerd zijn op het menselijk brein. Ze bestaan uit lagen van knooppunten of 'neuronen' die gegevens kunnen verwerken en patronen kunnen herkennen. Deze modellen zijn de basis van veel AI-systemen, waaronder de Gemma serie, omdat ze complexe taken kunnen uitvoeren, zoals beeld- en tekstherkenning.
O
Open source
Open source verwijst naar software waarvan de broncode vrij beschikbaar is voor iedereen om te gebruiken, aan te passen en te verspreiden. Het MCP is open source, wat betekent dat ontwikkelaars en organisaties het kunnen aanpassen naar hun eigen behoeften en kunnen bijdragen aan de verbetering ervan.
P
Parameters
Parameters in een AI model zijn de interne variabelen die het model gebruikt om voorspellingen te maken of beslissingen te nemen. Een model met 'miljarden parameters' heeft een zeer complexe structuur, waardoor het krachtig genoeg is om ingewikkelde taken uit te voeren, zoals het schrijven van code. Hoe meer parameters, hoe meer informatie het model kan verwerken en hoe nauwkeuriger het wordt.
Privacy
In de context van AI verwijst privacy naar het beschermen van gebruikersgegevens tegen ongeoorloofde toegang en gebruik. AI-systemen die persoonlijke of gevoelige informatie verwerken, moeten zorgen voor strenge privacybescherming om te voldoen aan wetgeving en gebruikersvertrouwen te behouden.
Privacy by design
Privacy by design is een principe in gegevensbescherming dat stelt dat privacy en databescherming vanaf het begin van het ontwerpproces van een nieuw product of dienst moet worden geïntegreerd, in plaats van als een toevoeging achteraf. Dit benadrukt het belang van het inbouwen van privacy en databeschermingsmechanismen in de ontwikkeling van technologieën.
PyTorch
PyTorch is een open source machine learning bibliotheek, gebruikt voor het ontwikkelen en trainen van neurale netwerkmodellen. Het is populair vanwege zijn flexibiliteit en gebruiksgemak, waardoor het een goede keuze is voor onderzoek en ontwikkeling van nieuwe AI-modellen.
R
Real-time datastromen
Real-time datastromen zijn continue, directe datafeeds die zonder vertraging aan systemen worden geleverd. Dit stelt AI modellen in staat om onmiddellijk te reageren op nieuwe informatie of veranderingen in de omgeving.
Reinforcement learning
Reinforcement learning is een type machine learning waarbij een softwareagent leert te handelen door beloningen te ontvangen of straffen te ondergaan als gevolg van de acties die het neemt binnen een bepaalde omgeving. Het doel is om de strategie van de agent te verbeteren en te optimaliseren voor het behalen van de beste resultaten.
Rekenkracht
Rekenkracht verwijst naar de hoeveelheid berekeningen die een computer per seconde kan uitvoeren. In de context van AI is meer rekenkracht vaak nodig om complexe modellen te trainen en te laten werken. Dit is vergelijkbaar met hoe een krachtigere motor een auto sneller kan laten rijden; in de wereld van AI laat meer rekenkracht je sneller en efficiënter 'denken'.
Robot Constitution
De Robot Constitution, ofwel de 'Robot Grondwet', is een set regels ontworpen door Google DeepMind, geïnspireerd door Isaac Asimovs Drie Wetten van de Robotica. Dit concept is bedoeld om ervoor te zorgen dat robots op een veilige en ethische manier handelen wanneer ze met mensen en hun omgeving interactie aangaan. De regels zijn erop gericht om schadelijk gedrag van robots naar mensen toe te voorkomen.
S
Spraakassistent
Een spraakassistent is een software die spraakherkenning, taalverwerking en synthese gebruikt om op gesproken commando's te reageren. Het kan helpen bij taken zoals het stellen van vragen, het bedienen van apparaten en het uitvoeren van online zoekopdrachten. Voorbeelden zijn Apple's Siri en Google Assistant.
Spraakmodel
Een spraakmodel is een type AI model dat gespecialiseerd is in het verwerken, herkennen, en genereren van menselijke spraak. Het kan gebruikt worden om stemcommando's te begrijpen, spraak om te zetten naar tekst, of kunstmatig stemmen te genereren die klinken als echte mensen.
T
Taalmodel
Een taalmodel is een technologie binnen kunstmatige intelligentie die het mogelijk maakt om menselijke taal te begrijpen en te genereren. Deze modellen kunnen worden getraind om taken uit te voeren zoals tekst vertalen, samenvatten, vragen beantwoorden en, zoals in dit geval, code schrijven voor programmeurs.
Tokens
In de context van een taalmodel verwijst 'tokens' naar de kleinste eenheden van tekst die het model als afzonderlijke items kan verwerken. Dit kunnen woorden zijn, maar ook cijfers of leestekens. Een model dat getraind is op 'biljoenen tokens' heeft een enorme hoeveelheid tekst geanalyseerd om te leren hoe taal is opgebouwd.
Tensor Processing Unit (TPU)
Een TPU, of 'Tensor Processing Unit', is een speciaal soort microprocessor ontwikkeld door Google om machine learning taken efficiënter uit te voeren. TPUs zijn geoptimaliseerd voor de speciale rekenbehoeften van AI-modellen en versnellen het trainen en inferentie (conclusies trekken) van diepe neurale netwerken.
Trainen
Trainen in de context van AI verwijst naar het proces waarbij een AI model leert om een taak uit te voeren door voorbeelden te analyseren. Het 'leert' patronen en relaties in data en gebruikt deze kennis om voorspellingen te doen of beslissingen te nemen. Denk hierbij aan het leren van een kind door ervaring: hoe meer het kind oefent en fouten maakt, hoe beter het wordt.
Trainingsdata
Trainingsdata zijn sets van informatie die gebruikt worden om AI modellen te 'trainen' of te leren hoe ze specifieke taken kunnen uitvoeren. Deze data kunnen bestaan uit tekst, afbeeldingen, video's of andere digitale formaten en zijn cruciaal voor het verbeteren van de nauwkeurigheid en effectiviteit van AI.
Transparantie
Binnen de context van AI verwijst transparantie naar het principe dat de werking en besluitvormingsprocessen van een AI-systeem duidelijk en begrijpelijk moeten zijn voor degenen die het gebruiken of door het beïnvloed worden. Dit omvat het gemakkelijk kunnen identificeren en begrijpen van de data en algoritmen die worden gebruikt, alsook de redenen achter specifieke AI-beslissingen.
V
Vertex AI
Vertex AI is een managed machine learning platform van Google Cloud dat ontwikkelaars in staat stelt om machine learning modellen te bouwen, te trainen en te implementeren op grote schaal met minimale inspanning.
Vision language model
Een 'vision language model' is een geavanceerd AI model dat zowel visuele informatie (wat het 'ziet') kan begrijpen als taal (wat het 'leest' of 'hoort'). Dit type model kan gebruikt worden om de context van een situatie te begrijpen door zowel de visuele omgeving te analyseren als instructies of beschrijvingen in tekst te interpreteren. Het stelt robots in staat om complexere taken uit te voeren die zowel begrip van de fysieke wereld als communicatie vereisen.