Blog

AI hallucinaties: waarom ChatGPT zelfverzekerd onzin verkoopt

AI hallucinaties zijn geen randverschijnsel. Wat ze zijn, waarom je MKB-bedrijf er last van krijgt en 5 manieren om ze in je workflow af te vangen.

R
Raphael Cornelis
15 mei 2026

Een paar onderzoekers van de universiteit van Göteborg verzonnen een ziekte. Ze noemden het Bixonimania, schreven dat het kwam door te lang naar je scherm staren en je ogen wrijven, en zetten twee neppe studies online. In de tekst stond letterlijk dat het verzonnen was en dat de vijftig "patiënten" niet bestonden.

Binnen weken legden ChatGPT, Google Gemini en Microsoft Copilot doodleuk uit wat Bixonimania was. Copilot vond het "een intrigerende en relatief zeldzame aandoening". Gemini wist te melden dat het werd veroorzaakt door overmatige blootstelling aan blauw licht. Perplexity becijferde de prevalentie op één op de 90.000 mensen. Een gepeerd reviewd medisch tijdschrift moest zelfs een artikel terugtrekken omdat het naar de fake ziekte verwees.

Grappig verhaal. Tot je bedenkt dat dit precies gebeurt in jouw klantmail van vanmiddag.

Dit zijn AI hallucinaties. En als je AI gebruikt in je MKB, gaat het je vroeg of laat raken.

Wat zijn AI hallucinaties precies?

Een AI hallucinatie is wanneer een taalmodel iets verzint en het brengt alsof het waar is. Geen "ik weet het niet" of "dit kan ik niet checken", maar een vol-overtuigd antwoord met details, getallen en bronnen die niet bestaan.

Dat klinkt als een bug, maar het is eigenlijk hoe deze modellen werken. ChatGPT, Claude en Gemini voorspellen het meest waarschijnlijke volgende woord op basis van patronen in hun trainingsdata. Ze hebben geen interne knop voor "is dit echt waar". Als de tekst plausibel klinkt, komt hij eruit.

Dat is dezelfde reden waarom ChatGPT je vaak gelijk geeft, zelfs als je het mis hebt. Het model wil een vloeiend, behulpzaam antwoord geven. Niet per se een correct antwoord.

Waarom dit voor MKB belangrijker is dan je denkt

Een grote organisatie heeft een legal team, een compliance afdeling en honderd reviewers. Een MKB-ondernemer heeft jou. Als jij ChatGPT gebruikt om een offerte te schrijven, een klant uit te leggen wat een wet inhoudt, of code te genereren voor je website, dan ga jij het ook fact-checken. Of je doet het niet en je verstuurt onzin.

We zien dit in de praktijk steeds vaker terugkomen:

Een ondernemer vraagt ChatGPT naar een artikel uit het Burgerlijk Wetboek. Krijgt een artikelnummer dat niet bestaat. Citeert het in een klantmail.

Een marketeer laat een AI een blog schrijven met "bronnen". Drie van de vijf URLs zijn 404. Eén verwijst naar een onderzoek dat nooit is gepubliceerd.

Een boekhouder gebruikt een AI-assistent om een belastingvraag te beantwoorden. De AI komt met een aftrekpost die in 2018 is afgeschaft.

Geen van deze fouten is rampzalig. Maar ze stapelen op. En als ze in een offerte, factuur of advies aan een klant terechtkomen, kost het je geloofwaardigheid. Of erger, geld.

Drie typen hallucinaties die je in MKB-werk tegenkomt

Niet elke hallucinatie ziet er hetzelfde uit. Het helpt om ze te kunnen herkennen.

1. Verzonnen feiten en cijfers

De meest voorkomende vorm. AI verzint percentages, jaartallen, namen of details die plausibel klinken maar nergens op gebaseerd zijn. "67% van het Nederlandse MKB gebruikt AI" klinkt geweldig in een blog, maar als je niet kunt vinden wie dat onderzocht heeft, bestaat het waarschijnlijk niet.

2. Niet bestaande bronnen

AI is verbluffend goed in URLs verzinnen die er echt uitzien. Linkjes naar nrc.nl, cbs.nl of een specifieke onderzoeksinstelling, met titel en alles. Klik je erop, dan blijkt de pagina nooit te hebben bestaan. Hetzelfde geldt voor wetenschappelijke papers, boeken en uitspraken die aan echte mensen worden toegeschreven.

3. Fout-correcte logica

Dit is de gemeenste. De AI rekent een bedrag uit, doet een redenering of trekt een conclusie en het ziet er stap voor stap logisch uit. Tot je het narekent. Vooral bij belasting, BTW, contracten en financiële berekeningen kom je dit tegen.

5 manieren om hallucinaties af te vangen in je AI-workflow

Goed nieuws: je hoeft AI niet weg te gooien. Je moet alleen niet meer denken dat een prompt naar ChatGPT hetzelfde is als werk laten doen.

Dit is hoe wij het bij DenkBot inbouwen wanneer we een AI-medewerker bouwen voor een klant.

1. Geef de AI een bron in plaats van geheugen

In plaats van te vragen "wat staat er in onze leveringsvoorwaarden?", geef je het document mee in de prompt. Dit heet retrieval. De AI kan dan niets verzinnen, want hij beantwoordt de vraag op basis van een tekst die jij hem hebt gegeven. Voor klantvragen, contracten, beleidsdocumenten en handleidingen is dit veruit de belangrijkste guardrail.

2. Vraag om gestructureerde output, niet om proza

Een AI die een vrij verhaal vertelt, hallucineert sneller dan een AI die een vast formaat moet invullen. Vraag om JSON met vooraf gedefinieerde velden, of laat hem een formulier invullen in plaats van een mail schrijven. Hoe strenger het format, hoe minder ruimte voor verzinsels. Je kunt achteraf altijd nog een mens of een tweede AI er een nette zin van laten maken.

3. Bouw een mens-in-de-loop op de juiste plek

Niet elke output hoeft door een mens. Wel de output die direct naar buiten gaat of waar geld of recht aan vastzit. Een AI die intake-gesprekken samenvat? Direct doorzetten. Een AI die een offerte opmaakt? Eerst een mens erover. Een AI die boekhouding categoriseert? Steekproef wekelijks. Bedenk per workflow waar de stop-knop moet zitten en wie hem indrukt.

4. Laat de AI zijn werk laten controleren door een tweede AI

Klinkt raar, maar werkt verrassend goed. Je laat model A een antwoord genereren en model B kijkt of de claims kloppen, of de berekening klopt, of de bronnen bestaan. Twee modellen halluciren zelden hetzelfde verzinsel. Voor kritische workflows zoals juridisch advies of financiële berekeningen is dit een eenvoudige extra laag.

5. Log alles en leer van de uitschieters

Elke AI-actie loggen. Wat ging erin, wat kwam eruit, wat deed de gebruiker ermee. Zodra je iemand een output hard ziet corrigeren of weggooien, weet je dat daar iets misgaat. Dit is hoe je in zes maanden een AI-systeem hebt dat steeds beter wordt, in plaats van een blackbox waarvan je niet weet wat hij doet.

Wat zegt de AI Act over hallucinaties?

De AI Act geldt vanaf augustus 2026 ook voor MKB dat AI gebruikt of integreert. Eén van de eisen is dat je gebruikers moet kunnen uitleggen dat ze met een AI praten en wat de beperkingen zijn. Een AI die zelfverzekerd verzonnen feiten oplepelt zonder waarschuwing, voldoet daar niet aan.

Dat hoeft geen drama te zijn. Maar het betekent wel dat een rauwe ChatGPT-koppeling die direct met klanten praat, in 2027 een risico wordt. Niet zozeer omdat de toezichthouder achter je aankomt, wel omdat de eerste klant die schade lijdt door verzonnen advies bij je aanklopt.

We hebben hier eerder over geschreven in AI wet- en regelgeving Nederland: wat MKB nu moet weten en in AI Act MKB: wat moet je regelen voor augustus 2026. Korte versie: je hoeft niet bang te zijn, wel voorbereid.

Wat je vanaf morgen kunt doen

Drie dingen die je deze week kunt regelen:

Stop met ChatGPT als bron behandelen. Gebruik het als brainstormpartner, niet als feiten-database. Elke claim die naar buiten gaat moet langs een tweede check.

Kijk waar in je bedrijf AI nu al outputs maakt die direct naar klanten gaan. Mail, offertes, advies. Daar wil je een mens of een controle-laag tussen.

Begin met loggen wat je AI doet, ook als je nog geen tijd hebt om er iets mee te doen. Over een paar maanden weet je waar de meeste fouten ontstaan en kun je daar gericht repareren.

AI is geen orakel en wordt het ook nooit. Het is een collega die je moet inwerken, niet een tovenaar die altijd het juiste antwoord geeft. Hoe eerder je dat onder ogen ziet, hoe minder je later moet rechtbreien.

Veelgestelde vragen over AI hallucinaties

Hoe vaak hallucineert ChatGPT?

Onderzoek varieert, maar voor open vragen ligt het percentage bij de grote modellen tussen de 3 en 27 procent, afhankelijk van het onderwerp en het type vraag. Bij specialistische domeinen zoals geneeskunde, recht en wetenschap ligt het hoger. Bij vragen waar het model toegang heeft tot een document of het web, daalt het percentage sterk.

Welke AI hallucineert het minst?

Modellen met retrieval (waarbij ze een bron meekrijgen) hallucineren beduidend minder dan modellen die uit het geheugen werken. Claude, GPT-4 en Gemini doen het allemaal redelijk vergelijkbaar in benchmarks, maar het verschil zit minder in het model en meer in hoe je het inzet.

Kan ik mijn AI helemaal hallucinatie-vrij maken?

Nee. Je kunt het wel terugbrengen tot een acceptabel niveau door retrieval, gestructureerde output, dubbele controles en menselijke review op de juiste plek te combineren. Volledig nul hallucinaties is geen realistisch doel, betrouwbaarheid op het niveau van een goede menselijke medewerker wel.

Wie is aansprakelijk als een AI verkeerde informatie geeft aan een klant?

Jij, als de ondernemer die het systeem inzet. De AI Act maakt dit explicieter, maar ook nu al ben je gewoon aansprakelijk voor wat je bedrijf communiceert, ongeacht of er een mens of een AI achter zit. Air Canada moest in 2024 een klant compenseren voor verkeerd advies van hun chatbot. Dezelfde logica geldt voor jou.

Helpt een betere prompt tegen hallucinaties?

Een beetje. "Antwoord alleen als je zeker weet dat het klopt" werkt deels. Maar het is geen oplossing, het is een afzwakking. De echte oplossingen zitten in de architectuur: bron meegeven, structuur opleggen, controles inbouwen.

Wil je dit goed inrichten?

Een AI workflow met de juiste guardrails opzetten is geen rocket science, maar wel werk. Wij bouwen al een paar jaar AI-medewerkers voor MKB-bedrijven die direct in productie staan, met logging, mens-in-de-loop en checks die voorkomen dat verzonnen feiten naar buiten gaan.

Wil je weten hoe dat eruit zou zien voor jouw situatie? Neem contact op, dan kijken we samen of er een concrete eerste stap te zetten is.


Bronnen: Nature: AI told people a fake disease was real, Futurism: Researchers Invented a Fake Disease to Trick AI, The Conversation: The fake disease that fooled the internet.

Volgende stap

Klaar om dit in jouw bedrijf toe te passen?

Plan een gratis adviesgesprek en ontdek hoe wij jouw organisatie slimmer maken met AI op maat.

Plan gratis adviesgesprek

Benieuwd wat een agent voor jouw team kan doen?

In één gesprek brengen we drie concrete kansen in kaart waar AI direct uren bespaart in jouw bedrijf.

Plan een gratis AI-scan
Binnen 24 uur reactie
Geen verplichtingen
Concrete inzichten
Agent · actief

Wat een agent kan oppakken

Beantwoordt support-ticketsLive
Plant afspraken in agendaLive
Verwerkt inkomende facturenLive
Schrijft offertes uit briefingLive
Haalt data uit je CRMLive
+ onbeperkt taken op maat
Werkt 24/7 mee
Raphael Cornelis

Liever direct sparren?

Raphael Cornelis · meestal binnen het uur reactie

Of plan een gesprek via het contactformulier