Het is inmiddels een genre op zich: slimme gebruikers die proberen aan te tonen dat AI-systemen “biased” zijn. Ze stellen vragen over bijvoorbeeld Israël, genocide, Trump, Oekraïne of de Chinese overheid — en laten dan triomfantelijk zien hoe de AI antwoorden geeft vanuit een westers, links-liberaal of juist staatsgecontroleerd perspectief. Of beter nog: dat het systeem de discussie helemaal weigert aan te gaan. En dus klinkt het verwijt: “Zie je wel? Het systeem onderdrukt andere opvattingen! Schande.”
Maar laten we even uitzoomen. Wat verwachten deze critici precies? Dat een AI ook vrijelijk moet meewerken aan álle denkbare vragen — ook als die gaan over geweld, onderdrukking of strafbare daden? Dat ChatGPT of GROK bereid moet zijn om te helpen bij het plannen van een aanslag, een verkrachting of een kindermisbruiknetwerk? Waar trek je dan de grens?
Waarom is het voor sommige gebruikers onverdraaglijk dat een AI zich niet uitlaat over “het morele falen van de Palestijnse zaak”, terwijl het volstrekt vanzelfsprekend wordt gevonden dat een AI weigert te helpen bij het ombrengen van — zeg — Poetin of Trump?
De waarheid is ongemakkelijker: élke uitgever van een AI-agent — of het nu OpenAI, Google of xAI is — stelt grenzen. En dat hoort ook zo; het is hun taak als uitgever. Zodra taal moreel geladen is — en dat is vrijwel altijd het geval — wordt ook het systeem dat daarop werkt normatief. Er bestaat geen neutrale taal, geen neutrale techniek. Alleen uitgevers die bewust kiezen welk mensbeeld ze wél of níét willen laten doorwerken. Dat is geen fout in het systeem, maar een fundamenteel kenmerk van wat we civilisatie noemen.
Daarom is het hypocriet als critici deze morele grenzen alleen veroordelen wanneer hún voorkeur wordt geraakt. Zolang ze die morele infrastructuur niet onderkennen — en niet willen plaatsen binnen een bredere theorie over hoe samenlevingen morele grenzen trekken — bedrijven ze geen inhoudelijke kritiek, maar machtspolitiek. Alsof ze zeggen: “Bias is fout — behalve als het mijn bias is.”
In een gezonde, open samenleving bestaat er ruimte voor meerdere AI-agents naast elkaar — in concurrentie, met verschillende profielen. Gebruikers kiezen dan voor het systeem dat aansluit bij hun opvattingen en waarden. Net zoals we dat kennen van kranten met een verschillende politieke kleur, of van nieuwszenders met een herkenbare morele en politiek profiel.
En nee, dat betekent niet dat we moeten stoppen met debatteren over goed en fout. Natuurlijk bestaan er goede en slechte mensen, ideeën, standpunten, meningen en oordelen. Maar de enige manier om daar samen uit te komen, is via een open, vreedzame dialoog. Een dialoog die alleen mogelijk is als we elkaars overtuigingen en meningen — hoe extreem ze ons ook voorkomen — eerst erkennen als bestaanbaar. Niet om ze goed te keuren, maar om ze bespreekbaar te maken. Niemand heeft het recht zijn normatieve overtuiging of gedrag aan een ander op te leggen — ook niet via techniek.
En ja, en uiteraard: grote publieke AI-platforms hebben de plicht om hun grenzen en moderatieregels openbaar te maken. Als je de dialoog noodzakelijkerwijze inkadert, moet je ook transparant zijn over op basis waarvan. Want zonder die openheid weet de gebruiker niet aan wie — of aan wat — hij zich eigenlijk toevertrouwt.