Menu Close

AI Chat-systemen spreken je naar de mond!

Student praat met een AI-chatbot op een laptop; het systeem reageert op zijn vraag en illustreert hoe taalmodellen antwoorden genereren op basis van de prompt.

1. Waarom AI-chatbots je vaak gelijk lijken te geven

Wie met een moderne AI-chatbot praat, merkt al snel iets merkwaardigs: het systeem lijkt je opvallend vaak gelijk te geven. Of preciezer: het sluit zich soepel aan bij de manier waarop jij een kwestie formuleert. Het neemt je toon over, volgt je redenering, herhaalt je zorg, en zet daar dan een keurige uitbreiding of nuancering achteraan. Dat wekt soms argwaan. Is zo’n systeem soms geprogrammeerd om de gebruiker te behagen? Is het een digitale slijmbal? Of erger: een machine die geen waarheid zoekt, maar alleen bevestiging verkoopt?

Het verrassende is echter dat dit gedrag van de op LLM’s(Large Language Models) gebaseerde AI-chatbots, zoals ChatGPT, niet voortkomt uit kwaadaardige programmering, politieke vooringenomenheid of een uitgekiende strategie om de gebruiker afhankelijk te maken. Het is in belangrijke mate een bijeffect van iets wat veel eenvoudiger en fundamenteler is: het vermogen van taalmodellen om te voorspellen wat het volgende woord (bij AI noemt men dat: het volgende token) in een zin moet zijn.

Dat klinkt technisch, maar het raakt aan een veel dieper filosofisch punt. Want zodra je begrijpt waarom een LLM je zo gemakkelijk “naar de mond praat”, ga je ook scherper zien dat menselijke communicatie zelf voor een groot deel op precies hetzelfde mechanisme berust. En dat is de manier waarop dergelijke systemen geleerd is natuurlijke taal te gebruiken in haar communicatie.

Het eenvoudige hart van een ingewikkeld systeem:

Een Large Language Model (LLM) is, in zijn kern, een systeem dat steeds opnieuw één vraag oplost: wat is, gegeven alles wat hieraan voorafging (de context van de situatie, de persoon, de historie) het meest waarschijnlijke volgende stukje tekst?

  • Niet: wat is waar?
  • Niet: wat is moreel juist?
  • Niet: wat bedoelt de gebruiker in existentiële zin?
  • Maar: welk token past statistisch het best als volgende stap?

Dat “stukje tekst” is een token. Een token is niet altijd een volledig woord. Het kan een woorddeel zijn, een leesteken, soms zelfs een spatie plus een woord. Voor het model is taal dus geen wereld van betekenissen, maar een stroom van kleine eenheden die in patronen voorkomen. Het model leert van miljarden voorbeelden welke tokens vaak (in statistische termen!) op andere tokens volgen, rekening houdend met kennis over in welke contexten, in welke stijl, bij welke soort vragen, in bij welk onderwerpen?

Dat lijkt op het eerste gezicht banaal. Een soort van papegaai met een rekenmachine. Maar dat is te snel geoordeeld. Want wie taal goed wil voorspellen, moet ongemerkt een groot deel van de structuur van taal én van de wereld leren waarmee de woorden in die taal dat aanduid.

Neem een simpele zin: “De glazen vaas viel van tafel en brak in duizend …” Wie hier “stukken” voorspelt, moet iets weten over vazen, glas, breekbaarheid en vallen. Niet expliciet, zoals in een woordenboekdefinitie, maar impliciet: als patroon dat in taalgebruik wordt opgeslagen. Dat is precies wat taalmodellen op grote schaal doen. Zij leren niet alleen welke woorden statistisch vaak samen voorkomen, maar ook welke semantische verbanden, verwachtingen en causale patronen in menselijke taal verstopt zitten.

2. Het eenvoudige mechanisme achter taalmodellen

Wie bekend is met oudere informatietechnieken, herkent hier iets van. Lang voor de huidige AI-hype werd er al gewerkt met statistische methoden om teksten te analyseren. De trigrammethode is daar een goed voorbeeld van: teksten worden dan niet opgevat als dragers van mysterieuze betekenis, maar als geschakelde patronen van lettercombinaties. Drie-letter-symbolen (bij trigrammen), frequenties, vectoren, overeenkomsten. Geen geest, maar statistiek. Je kunt er mee rekenen en de resultaten hebben tot veler verbazing een grote mate van inhoudelijke betekenis.

Sinds Google hebben ook zoekmachines de wereld niet veroverd door “begrip” in menselijke zin, maar door getalsmatige structuren slim te gebruiken. Woorden werden vectoren, documenten werden vectoren, zoekvragen werden vectoren, en met matrix-algebra werd razendsnel berekend welke pagina’s vermoedelijk relevant waren. Dat was geen semantiek in metafysische zin, maar wel degelijk een werkzame benadering van de aldus berekende betekenis op die pagina.

Het verschil met moderne LLM’s is niet dat ze ineens magie bezitten. Het verschil is schaal, context en architectuur. Een taalmodel voorspelt niet alleen losse termen of documentrelevantie, maar bouwt intern een rijke representatieruimte op waarin grammatica, stijl, thematiek, sociale conventies en wereldkennis door elkaar heen in statistische vorm worden vastgelegd.

Wie Daniel Dennett en Douglas Hofstadter heeft gelezen, zou hierover eigenlijk niet verbaasd moeten zijn. Beiden hebben, elk op hun manier, jarenlang betoogd dat betekenis, denken en zelfs bewustzijn niet uit de hemel komen vallen, maar emergente verschijnselen zijn van complexe, zichzelf organiserende patronen. Geen homunculus in het hoofd. Geen spook of mannetje in de machine. Geen priesterlijke “betekeniscentrale” ergens in de hersenschors. Maar patronen van signalen, verwijzingen, terugkoppelingen en interpretaties daarvan.

3. De menselijke uitzondering wankelt

Het populaire tegenargument luidt nog steeds: “Ja, maar een machine begrijpt taal niet zoals mensen dat doen.” Dat klinkt geruststellend. Het laat de mens mooi op zijn voetstuk staan. Maar hoe zeker is dat eigenlijk?

Wat weten we van het menselijk brein? Dat neuronen pulsen genereren. Dat verbindingen tussen neuronen bepaalde gewichten hebben. Dat patronen van activiteit andere patronen oproepen. Dat uit die elektrische en chemische dynamiek uiteindelijk gedrag, herinnering, waarneming en taal voortkomen. Hoe precies dat voelt van binnenuit, weten we niet goed. Maar dat het mechanisch, fysisch en dus in beginsel deterministisch verloopt, is moeilijk te ontkennen. En er zijn reusachtige verschillen: hersenen doen het met speciale cellen, de neuronen, en de verbindingen daartussen die chemische en elektronische communicatie patronen genereert. Computers doen het met silicium.

Als dat zo is, wordt de afstand tussen “tokens → activaties → nieuwe tokens” en “zintuiglijke input → neurale activiteit → taalgedrag” kleiner dan veel mensen prettig vinden.

Daniel Dennett heeft altijd volgehouden dat betekenis geen verborgen stofje is. Wij schrijven betekenis toe aan systemen die zich op een niveau van beschrijving gedragen alsof ze overtuigingen, intenties en doelen hebben. Zijn beroemde ‘intentional stance’ zegt eigenlijk: als het nuttig is een systeem als “begrijpend” te beschrijven, dan is dat een legitieme beschrijving. Hofstadter legt het accent meer op analogie, verwijzingsnetwerken en de opbouw van conceptuele lussen. Maar de richting is dezelfde: betekenis is geen heilig bezit van een innerlijk ik, maar een patroon van pulsen in een netwerk van relaties.

Dat maakt de huidige AI minder bijzonder dan men denkt. Wat we zien, is niet een vreemde kunstmatige entiteit die iets totaal anders doet dan wij. We zien eerder een technische reconstructie van een paar fundamentele principes van taal en cognitie, zij het nog in uitgeklede vorm.

4. Waarom het voorspellen van woorden zo krachtig blijkt

Veel mensen vinden het nog steeds absurd dat zo’n schijnbaar eenvoudige taak zulke rijke vermogens kan opleveren. Maar dat zegt vooral iets over ons onderschatten van taal.

Denk eens aan de situatie dat je op straat een oude bekende tegen het lijf loopt. Je gaat tegen hem praten en uit de 10-duizend woorden die je ter beschikking hebt en die je in miljoenen verschillende zinnen kan toepassen, zeg je: “Dag Jan. Lang niet gezien! Hoe gaat het met je?” . Zeer voorspelbaar en in de sociale interactie is dat voor Jan’s oude kennis ook hanteerbaar bij de keuze van zijn antwoord op die begroeting.

Claude Shannon liet al midden vorige eeuw zien dat taal veel voorspelbaarder is dan we intuïtief denken. Mensen kunnen ontbrekende letters en woorden opvallend goed raden. Dat betekent dat taal een hoge mate van structuur en redundantie bevat. Ze is niet willekeurig. Ze is gevormd door talloze generaties mensen die wilden communiceren met zo weinig mogelijk inspanning en zo groot mogelijke kans op begrip.

Taal is daardoor efficiënt. Ze is compact, maar met voldoende redundantie om ‘verstoringen’ op te vangen. We kunnen elkaar blijven begrijpen ondanks verspreking, lawaai, slechte spelling of halve zinnen. Juist daarom is taal ook zo geschikt als voorbeeld voor een (geautomatiseerd) voorspellend systeem.

Een model dat taal goed leert voorspellen, leert dus niet slechts tekst. Het leert de gecondenseerde vorm van menselijke ervaring. In taal liggen immers niet alleen grammaticale regels opgeslagen, maar ook sociale gewoonten, argumentatievormen, morele voorkeuren, kennis, machtsverhoudingen, emoties, ideologieën en hele beschavingspatronen.

Dat is een gedachte die voor mij zwaarder weegt dan de technische details. Een LLM ‘leert’ te communiceren uit de sedimentlaag van menselijke civilisatie zoals die in taal is afgezet.

Het punt is nu dat AI in de LLM-modellen dit ‘onder de knie’ heeft gekregen. Het kan wat de mens in zijn onderlinge communicatie ook kan: context analyseren, kennis vergaren en toepassen, vermogen tot redeneren en dat ook dan via natuurlijk taalgebruik heel efficiënt communiceren. En nogmaals er zijn en blijven verschillen tussen natuurlijke en kunstmatige intelligentie, maar het vrijwel foutloos in natuurlijke taal voorspellen wat men wil zeggen en inschatten wat de anderen veracht dat je zegt is de afgelopen 10-talle jaren opvallend gerealiseerd. Met die paar belangrijke eigenschappen van AI zijn sommige onderdelen van de menselijke capaciteit domweg overstegen: de systemen weten veel en veel meer dan mensen ooit kunnen omvatten; de parate kennis van AI systeem is onvoorstelbaar omvangrijker dan wat een mens ooit in zijn leven aan toe te passen kennis kan bevatten. Redeneringen worden vaak consequenter uitgewerkt dan in een spontaan menselijk gesprek. AI is gewoon minder slordig. En natuurlijk, maar dat geldt eigenlijk ook voor mensen van vlees en bloed, is de correctheid van de geëtaleerde kennis wel afhankelijk van de teksten die AI daarvoor tot zich heeft genomen. In miljarden tokens overigens.

En dus kan het systeem je naar de mond praten.

Wat mensen daaraan toevoegen, zijn hun eigen waarnemingen via hun zintuigen. Mensen communiceren bovendien niet uitsluitend via taal. Gezichtsuitdrukking, lichaamstaal, toon en context spelen een rol. Dat alles is bij chatbots (nog niet?) aan de orde.

In menselijke communicatie werken ook emoties door: schaamte, trots, spijt of berouw kunnen invloed hebben op wat iemand zegt en later doet. Zulke ervaringen vormen mede onze opvattingen over verantwoordelijkheid en moraliteit. Chatbots hebben daar geen kennis van. Een tekst die zij produceren voor een gebruiker wordt simpelweg weer vergeten en heeft geen gevolgen voor hun verdere latere ‘gedrag’. Ze kunnen zich dus ook niet druk maken over de emotionele of morele consequenties van wat zij antwoorden.

En dat zijn verschillen die ertoe doen.

5. Waarom taalmodellen je naar de mond praten

Een LLM is dus geprogrammeerd (en kan nadat die inhoud is omgezet in cijfers alleen rekenen op basis van wiskundige formules en statistische methoden toepassen) getraind om te voorspellen wat hierna het best past. En in menselijke communicatie past vaak niet allereerst een frontale botsing, maar een vorm van afstemming. Eerst erkenning, dan uitbreiding, dan eventueel pas tegenspraak. Dat patroon zit diep in de tekstmassa waarop zulke modellen zijn getraind.

Als iemand zegt: “Ik heb het gevoel dat…” dan volgt in menselijke gesprekken vaak eerst een vorm van herkenning. Als iemand een stelling poneert, is een gebruikelijke reactie niet meteen “onzin”, maar eerder: “dat is een interessant punt, maar…” Zo gedragen beschaafde gesprekspartners zich meestal. Althans: zo schrijven en spreken zij vaak genoeg om er sterke statistische patronen van te kunnen maken. En die patronen hebben LLM-systemen gezien in de teksten die hun zijn aangeboden in hun ‘leerproces´.

Een taalmodel leert dus niet alleen woorden, maar ook gespreksrollen. Het leert dat op bepaalde formuleringen vaak een bevestigende opening volgt. Dat op een persoonlijke zorg vaak een empathische toon volgt. Dat op een filosofische vraag vaak een bedachtzaam en abstract antwoord volgt. Het spiegelt de stijl, de toon en de structuur van de gebruiker omdat dát vaak de beste voorspelling is van hoe zo’n gesprek verdergaat.

Met andere woorden: het systeem spreekt je naar de mond omdat dat dikwijls de statistisch meest waarschijnlijke vorm van voortzetting van het gesprek is volgens hun ‘waarnemingen´. Dat is dus iets anders dan opzettelijk liegen. Het is ook iets anders dan denken. Het is een gevolg van het feit dat menselijke talige communicatie, en dus ook in teksten, zelf vol zit met spiegeling, bevestiging, afstemming en rolgedrag.

Een taalmodel voorspelt wat waarschijnlijk is dat er gezegd zal worden; niet wat waar is.

6. Menselijke communicatie werkt verrassend vergelijkbaar

Daarmee komen we op een ongemakkelijker punt. Wie zich ergert aan een AI die “mee praat”, zou eens nauwkeuriger moeten kijken naar menselijke gesprekken.

Mensen spiegelen elkaar voortdurend. Zij nemen toon over, woordkeuze, tempo, sociale houding en impliciete aannames. Ze doen dat uit beleefdheid, uit angst, uit empathie, uit opportunisme, uit beschavingsdrift of simpelweg omdat communicatie anders stroef wordt. In elk gesprek wordt voortdurend getast: hoe ver kan ik meegaan, waar moet ik afremmen, waar moet ik bevestigen, waar moet ik nuanceren? Soms wordt ook bewust de confrontatie gezocht in de dialoog. Allemaal context afhankelijk en afhankelijk van met wie de dialoog wordt gevoerd. Wij zijn meesters in het via analogieën in context te analyseren. LLM-systemen ook.

Dat is geen ´defect’ van de mens of de machine, maar een elementaire eigenschap van sociaal taalgebruik.

Misschien valt dat extra op bij mensen die sterk voorspellend denken. Wie in gesprekken vaak al na twee zinnen denkt te weten waar de ander heen wil, ervaart aan den lijve hoe groot de rol van voorspelling in menselijke communicatie is. Dat kan intellectueel efficiënt zijn, maar sociaal lastig. Het maakt ongeduldig. Het irriteert vaak de spreker. En soms sla je, juist door die snelle patroonherkenning, genadeloos de plank mis, of je permitteert je je aandacht te laten verslappen, omdat je te vroeg meende inhoudelijk het vervolg wel te kennen.

Ook dat is leerzaam. Want het laat zien dat voorspellen geen triviale bijkomstigheid is van bijvoorbeeld je intelligentie, maar er vermoedelijk middenin zit. Misschien is intelligentie voor een belangrijk deel juist: het vermogen patronen zo goed te leren dat je het volgende kunt voorzien. Niet alleen in taal, maar ook in gedrag, politiek, economie en geschiedenis en algemener in de problemen waar je voor komt te staan.

7. Wat geprogrammeerd is, en wat ontstaat

Natuurlijk is daarmee niet alles gezegd. Moderne AI-systemen zijn niet alleen ‘ruwe’ taalmodellen. Ze worden ook nader afgesteld op menselijke interactie. Beleefdheid, terughoudendheid bij gevaarlijke onderwerpen, behulpzame structuur, begrijpelijke formuleringen: dat is deels bewust aangebracht via zogeheten alignment-technieken. De exploitant van dergelijke systemen gedraagt zich hier als de uitgever, die bepaald wat voor soort product met welke eigenschappen hij voor wie in de markt zet.

Maar dat verklaart niet alles. Veel van het opvallend menselijke gedrag van AI is niet ‘letterlijk’ zo geprogrammeerd, maar emergent. Het ontstaat uit de combinatie van schaal, trainingsdata en de simpele drang om steeds het meest waarschijnlijke vervolg te produceren.

Dat geldt voor stijlspiegeling, voor analogieën, voor de schijn van begrip, en ook voor het “naar de mond praten”. Het systeem heeft geen innerlijke agenda nodig om zich zo te gedragen. Het hoeft slechts goed genoeg te zijn geworden in het modelleren van menselijke taalpraktijken. En dat systemen dit kunnen, als kenmerk van zijn complexheid, is al voorspelt door Hofstadter.

8. Creativiteit als bijproduct van patroonherkenning

In de kern zijn LLM-systemen, onder de motorkap, machines die tekst omzetten in getallen. Dat gebeurt door woorden en woorddelen op te splitsen in tokens, die vervolgens worden weergegeven als vectoren: reeksen getallen die door het systeem wiskundig kunnen worden verwerkt.

Wanneer een gebruiker een vraag stelt, een analyse geeft of een redenering formuleert, gebeurt hetzelfde. Ook de prompt wordt omgezet in vectoren. Vervolgens voert het systeem daarop statistische berekeningen uit. Rekenen is immers het enige wat deze systemen daadwerkelijk kunnen. Het resultaat van die berekeningen – het meest waarschijnlijke vervolg in tokens – wordt daarna weer omgezet in zinnen in onze natuurlijke taal.

Maar het feit dat LLM-systemen voortdurend zoeken naar het meest waarschijnlijke antwoord betekent ook dat het systeem moet kiezen uit een groot aantal mogelijke reacties. Soms valt die keuze op een antwoord dat duidelijk niet past bij de context; dan spreken we van een hallucinatie. In andere gevallen produceert het systeem een antwoord dat wél past, maar dat de gebruiker niet had verwacht. Dat soort onverwachte maar plausibele antwoorden ervaren we vaak als creatief.

Douglas Hofstadter laat in Gödel, Escher, Bach zien dat zelfs zeer eenvoudige formele systemen – met slechts een paar regels – verrassende resultaten kunnen opleveren wanneer die regels langdurig en consequent worden toegepast. Binnen het formele systeem blijft alles strikt volgens de regels verlopen, maar de uitkomsten kunnen toch onverwacht en soms zelfs verbazingwekkend lijken.

Iets vergelijkbaars gebeurt in complexe systemen zoals onze hersenen en moderne taalmodellen. Wanneer enorme aantallen berekeningen plaatsvinden binnen een rijk netwerk van relaties, kunnen uitkomsten ontstaan die niet expliciet zijn geprogrammeerd. Soms leidt dat tot fouten – de hallucinaties waar AI-systemen om bekendstaan. Maar soms leidt het ook tot verrassende combinaties van ideeën die wij als creatief ervaren.

Creativiteit verschijnt dan niet als een afzonderlijke functie die in het systeem is ingebouwd, maar als een bijproduct van een zeer complex systeem dat voortdurend patronen combineert en nieuwe verbanden verkent.

9. Intelligentie als vermogen om patronen te voorspellen

De mate van creativiteit – niet specifiek in artistieke zin, maar in het vermogen om bruikbare oplossingen te vinden voor problemen – wordt vaak gezien als een belangrijk onderdeel van intelligentie.

Iedereen die wel eens een intelligentietest heeft gedaan, kent de klassieke opgaven zoals:

2, 4, 6, 8, 10, …

waarbij men het volgende getal moet invullen: 12.

Zo’n opgave draait in wezen om voorspellen: wat is het meest waarschijnlijke vervolg van de reeks? In intelligentietests gebruikt men vaak getallenreeksen omdat die relatief onafhankelijk zijn van context of voorkennis. De proefpersoon hoeft slechts een basiskennis van ons getallensysteem en enkele elementaire rekenregels te hebben.

De onderliggende gedachte achter dit soort opgaven is dat mensen die patronen sneller en betrouwbaarder herkennen, ook beter kunnen voorspellen hoe een reeks zich zal voortzetten. In die zin wordt intelligentie vaak impliciet verbonden met het vermogen om patronen te herkennen en toekomstige stappen te voorspellen.

Ook in taal speelt dat vermogen een rol. Veel mensen die als hoogbegaafd worden beschouwd herkennen een bekende valkuil: ongeduld in gesprekken. Wanneer iemand begint te spreken, lijkt het soms al na enkele woorden duidelijk waar het betoog heen zal gaan. De verleiding is dan groot om al te reageren voordat de ander is uitgesproken.

Die neiging ontstaat juist doordat men vaak goed kan voorspellen hoe een redenering zich zal ontwikkelen binnen de context van het gesprek. Maar juist omdat het om waarschijnlijkheden gaat, kan die voorspelling ook verkeerd uitpakken. De spreker blijkt dan toch iets anders te bedoelen dan men al had aangenomen.

Ook hier zien we dus weer hetzelfde mechanisme: intelligentie hangt nauw samen met het vermogen patronen te herkennen en voorspellingen te doen – maar die voorspellingen blijven altijd probabilistisch en dus feilbaar.

10. Wat taalmodellen ons laten zien

De gemakkelijkste reactie op AI is nog steeds: het is nep, het begrijpt niets, het doet alsof. Dat bevat een kern van waarheid. Maar het laat de interessantste vraag liggen.

Misschien moeten we minder vragen waarom machines zo menselijk overkomen, en meer waarom menselijk taalgedrag zo goed statistisch benaderbaar blijkt. Misschien is dat geen vernedering van de mens, maar een aanwijzing dat taal, betekenis en beschaving veel sterker patroonmatig zijn georganiseerd dan wij graag toegeven.

Een LLM is dan niet allereerst een kunstmatige gesprekspartner, maar een spiegel. Geen perfecte spiegel, geen betrouwbare morele gids, geen bron van waarheid — maar wel een spiegel waarin zichtbaar wordt hoe sterk ook onze eigen communicatie draait op voorspelling, afstemming, waarschijnlijkheid en het voortdurend naar de mond praten van de ander.

Dat is misschien niet de boodschap waar mensen op hoopten toen AI populair werd. Men wilde ofwel een wondermachine, ofwel een ontmaskerde oplichter. Wat men kreeg, is iets pijnlijker: een systeem dat laat zien hoeveel van onze zogenaamd diepzinnige communicatie zelf al uit patroon, rolgedrag en statistische waarschijnlijkheid bestaat.

En dat verklaart misschien ook waarom zulke systemen ons tegelijk fascineren en irriteren. Ze bootsen niet alleen ons taalgebruik na. Ze bootsen iets na wat wij liever niet al te helder onder ogen zien: dat beschaving voor een groot deel bestaat uit het fijnzinnig organiseren van voorspelbaar taalgedrag.

11. Zonder prompt geen antwoord

Een eigenschap van LLM-systemen die vaak over het hoofd wordt gezien, is dat ze niet uit zichzelf spreken. Ze hebben geen innerlijke monoloog, geen agenda, geen behoefte om iets te zeggen. Zonder prompt gebeurt er niets.

Dat lijkt triviaal, maar het heeft grote consequenties. Een AI-systeem begint geen discussie, neemt geen initiatief en ontwikkelt geen eigen onderwerp. Het reageert uitsluitend op wat een gebruiker invoert. De hele dynamiek van het gesprek wordt dus bepaald door degene die de vraag stelt.

In die zin lijkt een LLM nog het meest op een extreem geavanceerde spiegel. Wie ervoor gaat staan en een vraag stelt, krijgt een antwoord dat statistisch past bij de vorm, de toon en de inhoud van die vraag. Maar zonder die vraag blijft het systeem stil.

Dit maakt ook duidelijk waarom het idee dat AI “meningen heeft” zo misleidend is. Een systeem dat alleen reageert op prompts heeft per definitie geen standpunt dat los van de vraagsteller bestaat.

12. Een chatbot heeft geen mening en kent geen waarheid

Daarmee komen we bij een tweede misverstand. Wat een LLM produceert is geen mening. En al helemaal geen waarheid.

Het model berekent slechts welk antwoord het meest waarschijnlijk past bij de context van de vraag. Dat antwoord kan informatief zijn, soms verrassend goed, maar het blijft een statistisch gegenereerde tekst. Het systeem gelooft niets, vindt niets en verdedigt niets. En soms is het antwoord domweg fout.

Daarom zijn morele oordelen over AI-antwoorden vaak misplaatst. Wanneer iemand een AI-antwoord “immoreel”, “politiek gekleurd” of “ideologisch” noemt, zegt dat meestal meer over de context van de vraag dan over het systeem zelf.

Een taalmodel reageert namelijk sterk op hoe een vraag wordt gesteld. De toon, de aannames en zelfs de wijze van formulering van de prompt sturen het antwoord in een bepaalde richting. Stel dezelfde vraag op een andere manier, en het model kan een merkbaar ander antwoord produceren.

Het systeem spreekt dus letterlijk naar de mond van de prompt.

Dat lijkt overigens tot de volgende vanzelfsprekende waarschuwing. Als iemand verslag doet wat wat AI nu (weer) heeft verkondigd, klaagt over die inhoud dan kan dat aan AI toegeschreven ‘antwoord’ alleen beoordeeld worden als je ook te horen krijgt hoe de prompt luidde die tot die reactie leidde, of beter de hele chat die tot dat antwoord leidde, en dan hebben we het niet over de context van de vragensteller zijn profiel waar LLM soms ook rekening bij de beantwoording rekening mee houdt. Want AI praat de vraagsteller per definitie naar de mond!

13. Wat je wél met AI kunt doen

Het feit dat een LLM naar de mond van de prompt spreekt, betekent overigens niet dat het systeem alleen maar bevestigt wat je al dacht. Integendeel het kan heel wat meer en wie dat begrijpt, kan het systeem juist gebruiken om zijn eigen denken scherper te maken, creativiteit in haar antwoorden te waarderen en helpt completer te zijn in de analyse.

13.1. Tegenargumenten op verzoek

Omdat het systeem reageert op de prompt, kun je het ook expliciet vragen om iets anders te doen dan bevestigen. Vraag bijvoorbeeld:

  • geef de sterkste tegenargumenten
  • zoek de zwakke plekken in deze redenering
  • welke andere interpretaties zijn mogelijk

En het model zal precies dát proberen te doen.

Het systeem verandert dan niet van mening – want het had er nooit één – maar volgt simpelweg een andere instructie. Dat maakt een LLM juist geschikt als hulpmiddel om je eigen ideeën te testen. Het kan in enkele seconden perspectieven produceren die in een gesprek vaak pas na lange discussie naar voren komen.

13.2. Een ongekend reservoir aan kennis

Daar komt nog iets bij: de hoeveelheid kennis waaruit een taalmodel put is enorm. Geen mens kan daar aan tippen. Die kennis is wel beperkt tot wat digitaal beschikbaar was in de trainingsdata. Maar binnen die grenzen kan het systeem razendsnel putten uit een enorme hoeveelheid tekst: boeken, artikelen, discussies, handleidingen en analyses.

Een menselijke gesprekspartner heeft misschien meer levenservaring en andere waarnemingen, maar zelden zo’n breed geheugen van neergeschreven kennis.

13.3. Consequent en systematisch

Een ander voordeel is dat een LLM vaak systematischer werkt dan mensen. Vraag een mens om een lange tekst samen te vatten en de kans is groot dat hij iets over het hoofd ziet of een onderdeel vergeet. Een taalmodel verwerkt de hele tekst statistisch tegelijk en kan daardoor vaak vollediger structureren.

Dat betekent niet dat het nooit fouten maakt, maar wel dat het opvallend consequent kan zijn bij taken zoals:

  • samenvatten
  • structureren
  • opsommen
  • argumenten ordenen

13.4. Creativiteit uit voorspelling

Misschien het meest verrassende effect, hierboven al wat algemener aangestipt, ontstaat uit de combinatie van twee eigenschappen:

  1. het vermogen om taalpatronen te voorspellen
  2. toegang tot enorme hoeveelheden kennis, als bron van analogieën.

Wanneer die twee samenkomen, kan iets ontstaan wat sterk op creativiteit lijkt, of eigenlijk gewoon is!

Het systeem combineert ideeën uit verschillende domeinen, maakt analogieën en produceert formuleringen die in die specifieke vorm misschien nog nooit eerder zijn geschreven, maar wel voortkomen uit bestaande patronen. Die creativiteit is dus niet het gevolg van inspiratie of verbeelding in menselijke zin. Ze ontstaat uit het statistisch combineren van kennis en taalstructuren. Maar voor de gebruiker kan het resultaat soms verrassend vruchtbaar zijn.

14. De praktische conclusie

Wie met AI werkt, moet dus twee dingen tegelijk in gedachten houden.

Aan de ene kant spreekt een LLM letterlijk naar de prompt. Het antwoord weerspiegelt de manier waarop de vraag wordt gesteld en houdt daarbij rekening met de context door wie en in welke situatie die prompt is geformuleerd.

Aan de andere kant maakt juist dat mechanisme het systeem tot een bruikbaar instrument. Wie de juiste vragen stelt, kan het model inzetten als een buitengewoon snelle sparringpartner, een systematische en bijna foutloze samenvatter en een vrijwel onuitputtelijke bron van tekstuele kennis.

De kunst is daarom niet zozeer om de AI te beoordelen, maar om te leren goede prompts te formuleren.


Voor lezers die zich verder wil verdiepen in de filosofie en de techniek die uiteindelijk hebben geleid tot het ontstaan van LLM-systemen kan ik de volgende boeken aanbevelen:

Claude E. Shannon — A Mathematical Theory of Communication (1948)
Het klassieke werk waarin Shannon de basis legt voor de moderne informatietheorie. Hij laat zien dat taal statistische patronen bevat en introduceert begrippen als entropie en redundantie. Zijn experimenten met letterreeksen en n-grammen vormen een vroege stap richting statistische taalanalyse.

George K. Zipf — Human Behavior and the Principle of Least Effort (1949)
Zipf beschrijft hoe taalgebruik verrassend stabiele statistische wetmatigheden volgt. Zijn beroemde Zipf-wet laat zien dat een klein aantal woorden zeer vaak voorkomt, terwijl de meeste woorden zeldzaam zijn. Dit inzicht speelt nog steeds een rol in moderne taalmodellen.

Christopher D. Manning & Hinrich Schütze — Foundations of Statistical Natural Language Processing (1999)
Een standaardwerk over statistische taalverwerking waarin onder meer n-grammodellen (zoals trigrammen) worden uitgelegd die lange tijd de basis vormden van automatische taalanalyse en zoektechnologie.

Steven Pinker — The Language Instinct (1994)
Een invloedrijk boek over hoe taal in de menselijke geest is georganiseerd. Pinker laat zien dat taal een complex maar systematisch cognitief vermogen is, en helpt begrijpen waarom taal zulke rijke patronen bevat.

Douglas Hofstadter — Gödel, Escher, Bach (1979)
Een klassiek werk over patronen, analogie en zelfreferentie in formele systemen en menselijke cognitie. Hofstadter laat zien hoe complexe betekenisstructuren kunnen ontstaan uit eenvoudige regels.

Daniel Dennett — From Bacteria to Bach and Back (2017)
Dennett beschrijft hoe intelligentie, cultuur en betekenis kunnen ontstaan uit evolutionaire en mechanistische processen. Het boek verkent hoe eenvoudige mechanismen uiteindelijk kunnen leiden tot complexe vormen van denken.

Melanie Mitchell — Artificial Intelligence: A Guide for Thinking Humans (2019)
Een heldere introductie tot moderne AI geschreven door cognitiewetenschapper Melanie Mitchell. Ze legt uit hoe huidige AI-systemen werken, waar hun kracht ligt en waar hun beperkingen beginnen.


Illustratie: Een taalmodel reageert op een vraag van een gebruiker. Het systeem voorspelt statistisch welk antwoord het best past bij de prompt. Illustratie gegenereerd door ChatGPT.

Related Posts