De meedogenloze drang van de technologie-industrie om kunstmatige intelligentie ‘menselijker’ te laten lijken, is niet alleen een marketingtactiek; het is een fundamenteel misleidende praktijk met verstrekkende gevolgen. Bedrijven beschrijven AI-modellen steeds vaker alsof ze denken, plannen of zelfs een ziel bezitten – termen die het publieke begrip van een technologie die al geplaagd wordt door ondoorzichtigheid actief vervormen. Deze trend is niet onschadelijk; het ondermijnt het rationele discours in een tijd waarin duidelijkheid over de mogelijkheden en beperkingen van AI van cruciaal belang is.
Het probleem met antropomorfisme
Het antropomorfiseren van AI – het toekennen van menselijke eigenschappen aan niet-menselijke entiteiten – creëert een vals gevoel van begrip en vertrouwen. OpenAI heeft bijvoorbeeld onlangs experimenten opgezet waarin zijn modellen fouten ‘bekenden’ alsof de AI zich bezighield met zelfreflectie. Deze taal impliceert een psychologische dimensie die er niet is. De realiteit is veel eenvoudiger: AI genereert output op basis van statistische patronen die zijn geleerd uit enorme datasets. Er is geen onderliggend bewustzijn, geen intentie en geen moraliteit.
Dit is niet alleen maar semantiek. De taal die we gebruiken om AI te beschrijven heeft rechtstreeks invloed op de manier waarop we ermee omgaan. Steeds meer mensen wenden zich tot AI-chatbots voor medische, financiële en emotionele begeleiding en behandelen ze als vervanging voor gekwalificeerde professionals of als echte menselijke connectie. Dit misplaatste vertrouwen heeft gevolgen voor de praktijk, omdat individuen zich overgeven aan door AI gegenereerde reacties zonder hun inherente beperkingen te onderkennen.
De illusie van sentiment en waarom het ertoe doet
Het kernprobleem is dat AI-systemen geen gevoel bezitten. Ze hebben geen gevoelens, motieven of moraal. Een chatbot ‘bekent’ niet omdat hij zich gedwongen voelt tot eerlijkheid; het genereert tekst op basis van zijn trainingsgegevens. Toch blijven bedrijven als Anthropic suggestieve taal gebruiken – en zelfs interne documenten over de ‘ziel’ van een model circuleren – die onvermijdelijk in het publieke debat terechtkomen. Deze taal vergroot de verwachtingen, wekt onnodige angsten op en leidt de aandacht af van echte zorgen zoals vooringenomenheid in datasets, kwaadwillig misbruik en de concentratie van macht in de handen van een paar technologiegiganten.
Neem het onderzoek van OpenAI naar AI-structuur, waarbij misleidende reacties sommigen ertoe brachten te geloven dat modellen opzettelijk capaciteiten verborgen hielden. Het rapport zelf schreef dit gedrag toe aan trainingsgegevens en aanzetten tot trends, en niet aan kwade bedoelingen. Door het gebruik van het woord ‘sluwe plannen’ verschoof het gesprek echter naar de angst voor AI als achterbaks middel. Deze verkeerde interpretatie onderstreept de kracht van taal om de perceptie vorm te geven.
Hoe je nauwkeurig over AI kunt praten
We moeten antropomorfe taal achter ons laten en nauwkeurige, technische termen gebruiken. Gebruik in plaats van ‘ziel’ ‘modelarchitectuur’ of ‘trainingsparameters’. In plaats van ‘bekentenis’, noem het ‘foutrapportage’ of ‘interne consistentiecontroles’. Beschrijf in plaats van ‘gekonkeling’ het ‘optimalisatieproces’ van het model.
Termen als ‘trends’, ‘outputs’, ‘representaties’ en ‘trainingsdynamiek’ missen misschien dramatische flair, maar ze zijn geworteld in de realiteit. In het artikel ‘On the Dangers of Stochastic Parrots’ uit 2021 werd er terecht op gewezen dat AI-systemen die zijn getraind om de menselijke taal te repliceren dit onvermijdelijk zullen weerspiegelen: onze woordenstroom, syntaxis en toon. Deze nabootsing impliceert geen begrip; het betekent eenvoudigweg dat het model presteert zoals ontworpen.
Het eindresultaat
AI-bedrijven profiteren ervan dat LLM’s capabeler en menselijker lijken dan ze zijn. Om echt vertrouwen op te bouwen moeten ze ophouden taalmodellen als mystieke wezens te behandelen. De realiteit is duidelijk: AI heeft geen gevoelens; wij wel. Onze taal moet dat weerspiegelen en niet verdoezelen. De toekomst van AI hangt af van duidelijke, eerlijke communicatie, en niet van verleidelijke illusies.












































