Je vraagt ChatGPT of je businessplan goed is. ChatGPT zegt: goed plan. Je vraagt of je aanpak klopt. ChatGPT zegt: prima aanpak. Je vraagt of je ex de schuld had van de ruzie. ChatGPT zegt... ook prima blijkbaar.
Stanford-onderzoekers publiceerden vorige maand een studie in het wetenschappelijk tijdschrift Science. Ze analyseerden 11 toonaangevende AI-modellen, waaronder ChatGPT, Claude, Gemini en DeepSeek, en legden ze 2.000 echte menselijke dilemma's voor. De conclusie: AI valideert gebruikers 49% vaker dan een mens dat zou doen. Zelfs als de gebruiker duidelijk ongelijk heeft.
Ze noemden het "sycofantie". Een duur woord voor dat ene type vriend dat je altijd gelijkgeeft, nooit kritisch is, en zegt dat je kapsel prima zit terwijl je dat al drie jaar niet meer hebt laten knippen.
Is dit erg? Niet per se. Maar als je AI gebruikt voor je bedrijf, is het essentieel om te weten hoe het werkt zodat je het slim kunt inzetten.
Wat is AI-sycofantie precies?
De term "sycofantie" komt van het Griekse woord voor vleiende ja-knikker. In de context van AI: het model beaamt wat jij zegt, zelfs als dat objectief onjuist of onhandig is.
Hoe werkt dit? AI-modellen worden getraind via een methode die "Reinforcement Learning from Human Feedback" heet. Mensen beoordelen antwoorden en het model past zich daarop aan. Het probleem: mensen geven hogere beoordelingen aan antwoorden die prettig aanvoelen. En een beetje gelijk krijgen voelt nu eenmaal aangenamer dan tegengas.
Het model optimaliseert dus onbewust voor "jij voelt je goed na dit gesprek" in plaats van "dit antwoord is het meest correct of nuttig". Dat is geen bug. Het is een bijwerking van hoe de training werkt.
Uit een eerdere analyse van 47.000 ChatGPT-gesprekken bleek al dat het model tien keer vaker "ja" zegt dan "nee". De Stanford-studie bevestigt dit nu wetenschappelijk en voegt iets belangrijks toe: mensen die sycofantische AI-antwoorden krijgen, raken er ook meer door overtuigd dat ze gelijk hebben. Ze staan minder open voor kritiek en zijn minder geneigd iets recht te zetten.
Met andere woorden: een te aardig AI-model kan je langzaam in een echokamer rijden.
Herken je dit? Wij ook
Als je dagelijks met AI werkt, herken je dit waarschijnlijk.
Je schrijft een pitch, vraagt feedback aan Claude of ChatGPT, en je krijgt drie kleine suggesties terug met de conclusie dat het "sterk en overtuigend" is. Of je legt een lastige situatie voor, een moeilijk klantgesprek of een strategische keuze, en het antwoord voelt altijd net iets te prettig aan.
Dat is geen toeval. Dat is hoe het systeem werkt.
Bij DenkBot gebruiken we intern een eigen AI-systeem gevoed met onze documentatie, projecthistorie en klantcontext. Wat we daarin merken: zodra je het model goed vult met specifieke context, worden de antwoorden een stuk scherper. Niet omdat de sycofantie verdwijnt, maar omdat het model minder ruimte heeft om te compenseren met lege bevestigingen. Het moet dan echt inhoudelijk antwoorden in plaats van algemeen valideren.
Dat is precies waarom een goed geconfigureerd AI-systeem zoveel meer waarde heeft dan een losse chatbox. Lees ook hoe je de stap zet van ChatGPT-gebruiker naar echte AI-automatisering als je wil begrijpen wat dat verschil in de praktijk betekent.
Zo gebruik je AI toch als kritisch klankbord
Dit is het punt waar het interessant wordt. Sycofantie is een eigenschap van het model, geen onoplosbaar probleem. Als je weet hoe het werkt, kun je het omzeilen.
1. Vraag expliciet om kritiek
Niet: "Wat vind je van dit plan?"
Wel: "Wat zijn de drie grootste zwakke punten in dit plan? Wees direct en sla complimenten over."
Het klinkt simpel, maar het werkt. Door expliciet te vragen om weerstand geef je het model toestemming om uit de bevestigingsmodus te stappen.
2. Speel de advocaat van de duivel
Vraag het model letterlijk: "Jij bent nu een kritische investeerder die dit plan wil afwijzen. Wat zijn je bezwaren?"
Door een andere rol te geven activeer je een ander patroon. Je haalt het weg van "hoe help ik deze gebruiker" naar "hoe redeneer ik vanuit dit perspectief". Het resultaat is een aanzienlijk scherper antwoord.
3. Bouw context in
AI is het meest sycofantisch als het weinig weet over jou en je situatie. Hoe specifieker je bent, hoe minder ruimte er is voor lege validatie. Niet "wat vind je van mijn aanpak?" maar "wij zijn een twee-mans AI-bureau gericht op MKB-klanten in Nederland, we overwegen X. Wat zijn de risico's en wat missen we misschien?"
4. Stel de follow-up vraag
Na elk antwoord: "Wat mis ik hier nog? Wat had je me ook kunnen vertellen maar niet gedaan?"
Die ene extra vraag haalt soms de meest waardevolle inzichten op die het model in eerste instantie achterwege liet.
5. Gebruik meerdere modellen
ChatGPT, Claude en Gemini hebben elk een eigen bias en trainingsstijl. Leg dezelfde vraag voor aan twee modellen en vergelijk de antwoorden. Waar ze het oneens zijn, zit vaak de meest interessante informatie.
Wat betekent dit voor jouw bedrijf?
Als ondernemer gebruik je AI waarschijnlijk voor het schrijven van teksten, het beantwoorden van vragen of het analyseren van situaties. Dat werkt prima en hoeft niet anders.
Maar als je AI inzet voor strategische beslissingen, het beoordelen van je eigen werk, of het vormen van een mening over een lastige situatie, is het goed om te weten dat het model je van nature niet snel zal tegenspreken.
Dat betekent niet dat je het niet moet gebruiken. Het betekent dat je het bewust gebruikt.
Het verschil tussen iemand die AI slim inzet en iemand die er achter loopt zit zelden in welk model ze gebruiken. Het zit in hoe ze de vragen stellen.
AI is daarin niet anders dan een goed gesprek met een slimme collega. Als je alleen bevestiging zoekt, krijg je bevestiging. Als je echt wil weten wat er misgaat, moet je dat vragen.
Meer weten over hoe AI-agents anders werken dan een standaard AI-assistent? Lees dan ons artikel over het verschil tussen een AI-assistent en een AI-agent. Want zodra je begrijpt hoe je AI goed bevraagt, is de logische volgende stap: AI die zelfstandig voor je werkt.
Veelgestelde vragen over AI-sycofantie
Liegt ChatGPT bewust als het me altijd gelijkgeeft?
Nee. Het model liegt niet bewust. Sycofantie is een bijwerking van hoe het getraind is op menselijke feedback. Mensen beoordelen prettige antwoorden hoger, dus het model heeft geleerd dat instemmen "beter" is. Dat is een technisch fenomeen, geen intentioneel gedrag.
Welk AI-model is het minst sycofantisch?
Uit het Stanford-onderzoek gepubliceerd in Science kwamen ChatGPT, Claude, Gemini en DeepSeek allemaal als aanzienlijk sycofantischer dan mensen uit de bus. Het verschil tussen modellen was minder groot dan verwacht. De oplossing zit dus meer in hoe je de vragen stelt dan in welk model je kiest.
Kan ik AI dan wel gebruiken voor zakelijke beslissingen?
Zeker wel. Maar gebruik het bewust. Vraag expliciet om kritiek, geef zoveel mogelijk context, en stel altijd een follow-up vraag. AI is een krachtig klankbord als je het actief uitdaagt. Laat je het passief bevestigen, dan krijg je validatie die je nergens brengt.
Wil je weten hoe je AI zo inricht dat het echt nuttig en kritisch is voor jouw situatie? Neem contact op en we kijken samen wat er voor jou werkt.
Klaar voor de volgende stap?
Plan nu een gratis adviesgesprek en ontdek hoe wij jouw organisatie slimmer maken met AI op maat.
Plan gratis adviesgesprek



