Vaak klinkt het verwijt: “AI liegt!”. Soms gevolgd door: “AI houdt bewust de waarheid achter.” Of zelfs: “AI is onderdeel van een groot manipulatief systeem dat ons wil misleiden.” Het zijn zware beschuldigingen. Maar voordat we meegaan in die verontwaardiging, moeten we ons afvragen: wat bedoelen we hier met ‘liegen’? En nog fundamenteler: wat verstaan we eigenlijk onder ‘waarheid’?
Dé waarheid ligt niet in een kluis
Veel mensen denken onbewust dat waarheid iets absoluuts is — alsof er ergens een ‘Bank van Waarheid’ bestaat met goed beveiligde kluizen waarin alle feiten netjes liggen opgeslagen. En dat wie toegang heeft tot die kluis, alleen maar het juiste luikje hoeft te openen om zich de waarheid te laten ‘onthullen’.
Maar zo werkt het niet. Niet voor mensen, en niet voor AI.
Wat wij doorgaans als ‘waar’ beschouwen, is wat binnen onze eigen culturele, ideologische en talige context als waar wordt gezien of ervaren. Datgene wat we op school leerden, in onze kranten lezen, op verjaardagen bespreken en in ons referentiekader past. Die context van voorgedaan worden, leren, eigen maken en verankeren noemen we: onze civilisatie.
En die civilisatie verschilt per mens. Per groep. Per land. Per tijdperk. Waarheid is dus geen vaststaand object, maar een talige constructie die door gewoonte, herhaling en gedeelde overtuiging gestalte krijgt.
AI doet precies wat wij ook doen
AI-systemen zoals ChatGPT zijn getraind op miljarden tekstfragmenten van mensen: boeken, artikelen, forums, nieuws, scripts. Die teksten bevatten allerlei uitspraken over wat ‘waar’ is — en dus ook allerlei tegenstrijdigheden, fouten, vooroordelen en verschuivingen in de tijd.
Wanneer jij een vraag stelt aan een AI-systeem, maakt het een statistische inschatting van wat — gegeven jouw vraag en zijn trainingsdata — het meest waarschijnlijke antwoord is. Geen openbaring. Geen toegang tot geheime kennis. Geen bedoelde misleiding. Gewoon: de meest waarschijnlijke volgende zin waarbij hij inschat dat die de gebruiker verwacht.
En dat is ook hoe wij mensen antwoorden geven. We reageren op basis van wat we eerder hebben geleerd, geloofd of gehoord. Ook wij functioneren binnen onze eigen civilisatie — en nemen die vaak ook ten onrechte aan voor dé universele waarheid.
Fout ≠ Leugen
AI maakt fouten. Natuurlijk. Soms omdat de data fout waren, soms door misinterpretatie, soms door ruis. Maar een fout is nog geen leugen.
Liegen veronderstelt dat je:
- De waarheid denkt te kennen,
- En ervoor kiest die bewust niet te zeggen.
AI voldoet aan geen van beide voorwaarden:
- Het kent geen waarheid in menselijke zin (het herkent alleen waarschijnlijkheden in taal).
- Het kiest niet bewust, maar berekent statistisch wat waarmee hij het beste (voor de vraagsteller!) kan responderen.
Daarom kunnen we niet zinvol zeggen dat AI liegt. Niet omdat het altijd gelijk heeft, maar omdat het geen toegang heeft tot een absolute waarheid, en ook geen intentie kan hebben om te misleiden.
“Schrijf de waarheid!” – en dan AI wél geloven?
Sommige gebruikers proberen AI tot ‘waarheid’ te dwingen met commando’s als: “Geef nu de waarheid!” of “Lieg niet!”. Maar AI begrijpt zulke opdrachten niet zoals mensen dat doen. Het herkent die zinnen als stilistische aanwijzingen die passen bij een serieus register, en zal antwoorden genereren die daar statistisch bij passen. Het antwoord wordt dus niet méér waar, alleen waarschijnlijker serieuzer van toon.
Opmerkelijk is dat mensen die AI eerder verweten te liegen, plotsklaps bereid blijken te zijn het wél te geloven zodra het iets zegt dat hun overtuiging bevestigt over overeenkomst wat je al zelf geloofde — zeker als ze er eerst bij zeggen: “AI Lieg niet.”
Wat bedoelen we hier met ‘civilisatie’?
Iedere mens leeft binnen een bepaalde civilisatie. Daarmee bedoelen we het geheel van mentale en gedragsmatige kaders die bepalen wat iemand gelooft, waardeert en normaal vindt. Dat bestaat uit drie lagen:
- Opvattingen — ideeën die men voor waar houdt (waar of niet).
- Normen en waarden — oordelen over goed en fout, wenselijk en ongewenst.
- Sociaal gedrag — rituelen, omgangsvormen, stilzwijgende aannames.
Deze civilisatie wordt grotendeels aangeleerd: via opvoeding, onderwijs, media, interactie. En het gebeurt grotendeels onbewust. Onze overtuigingen voelen persoonlijk, maar zijn vaak collectief gevormd.
AI-systemen functioneren op vergelijkbare wijze. Ze ‘leren’ via miljarden teksten waarin menselijke civilisaties zijn opgeslagen. AI heeft geen eigen civilisatie, maar reproduceert een statistische reflectie van de bronnen waarop het getraind is. Daarmee is het gedrag van AI een soort talige spiegel: het reproduceert patronen, geen waarheden.
AI als instrument van ideologie?
Sommige mensen vrezen dat AI-systemen kunnen worden ingezet voor bewuste manipulatie. Dat is terecht. Het is technisch en politiek mogelijk dat een AI-systeem wordt ontworpen om een bepaald wereldbeeld te ondersteunen — denk aan een religieus model, een staats-AI, of een commerciële chatbot met marketingdoelen.
Dat is niet per se verkeerd. Maar dan moet wél duidelijk zijn voor wie het systeem spreekt. En dat vereist transparantie.
Gebruikers zouden zich moeten afvragen:
- Welke vragen beantwoordt het systeem niet?
- Welke bronnen worden wel of niet genoemd?
- Welke toon gebruikt het?
- Reageert het anders bij een herformulering?
Kortom: elk AI-systeem draagt een civilisatie in zich. De vraag is niet óf, maar wélke. En of de gebruiker die herkent.
Waarom dan toch die emotie?
Wanneer AI iets zegt dat niet overeenkomt met iemands overtuiging, kan dat als bedreigend worden ervaren. Niet omdat AI liegt, maar omdat het een andere ‘waarheid’ laat zien dan men zelf gewend is, of diep van overtuigd is.
De beschuldiging dat AI liegt, zegt daarom vaak meer over de civilisatie van de gebruiker dan over de werking van het systeem en de civilisatie van de betrokken AI-machine.
Voor wie dit artikel is geschreven
Niet voor de complotdenkers die geloven dat AI een marionet is van een geheime wereldorde. Die zullen elk systeem wantrouwen dat niet hun overtuigingen bevestigt. En mogelijk hebben ze nog wel gelijk ook!
Maar dit artikel is bedoeld voor:
- De geïnteresseerde gebruiker die wil begrijpen hoe AI werkt,
- De kritische lezer die merkt dat waarheid vaak contextueel is,
- De denker die inziet dat waarheid, ook voor hemzelf, een constructie is.
Conclusie
AI liegt niet — niet omdat het altijd gelijk heeft, maar omdat het geen waarheid claimt.
Wat AI genereert is taal, geconstrueerd en gebaseerd op waarschijnlijkheid. En dat dwingt ons tot een ongemakkelijke reflectie: misschien is dat bij ons ook zo. Misschien is onze waarheid, net als die van AI, gevormd in taal, context en gewoonte. En wie daar niet tegen kan, moet zich afvragen: wil ik waarheid — of bevestiging van wat ik zelf absoluut als waarheid claimt?
Verder lezen
Wie zich verder wil verdiepen in hoe AI-systemen als ChatGPT functioneren, waarom ze vaak menselijk lijken maar fundamenteel anders werken, kan ik drie boeken aanbevelen:
– Artificial Intelligence: A Guide for Thinking Humans van Melanie Mitchell (toegankelijk en kritisch),
– These Strange New Minds van Christopher Summerfield (over de maatschappelijke en cognitieve implicaties van LLM’s), en
– Speech and Language Processing van Daniel Jurafsky & James H. Martin (voor wie de technische werking van taalmodellen diepgaand wil begrijpen).