In de race om AI-modellen steeds indrukwekkender te laten lijken, hebben technologiebedrijven een theatrale benadering van taal aangenomen. Ze blijven over AI praten alsof het menselijk is. Het gaat niet alleen om het ‘denken’ of ‘plannen’ van AI – die woorden hebben al een betekenis – maar nu bespreken ze een de ‘ziel’ van een AI-model en hoe het model ‘bekent’, ‘wil’, ‘plannen maakt’ of ‘zich onzeker voelt’.
Dit is geen onschuldige marketingontwikkeling. Het antropomorfiseren van AI is misleidend, onverantwoordelijk en uiteindelijk schadelijk voor het maatschappelijke begrip van een technologie die al worstelt met transparantie, in een tijd waarin duidelijkheid van het allergrootste belang is.
Onderzoek van grote AI-bedrijven, dat generatief AI-gedrag wil verklaren, wordt vaak op een manier ingekaderd die eerder verduisterend dan verhelderend is. Neem bijvoorbeeld Laatste bericht van OpenAI waarin zijn werk wordt beschreven om zijn model de fouten of sluiproutes te laten ‘toegeven’. Dit is een waardevol experiment dat onderzoekt hoe chatbots zelf bepaald ‘wangedrag’ rapporteren, zoals hallucinaties en bedrog. Maar OpenAI’s beschrijving van het proces als een “herkenning” impliceert dat er een psychologisch element schuilgaat achter de grote output van taalmodellen.
Misschien komt dit voort uit het besef hoe uitdagend het is voor LLM’s om echte transparantie te bereiken. We hebben bijvoorbeeld gezien dat AI-modellen hun werk bij dergelijke activiteiten niet op betrouwbare wijze kunnen aantonen Sudoku-puzzels oplossen.
Er is een kloof tussen de twee Wat AI kan genereren en Hoe het genereert ze, en daarom is deze mensachtige terminologie zo gevaarlijk. We hebben het misschien over de werkelijke beperkingen en gevaren van deze technologie, maar termen die naar AI verwijzen als bewuste wezens minimaliseren alleen de zorgen of negeren de risico’s.
Mis onze onpartijdige technische inhoud en laboratoriumbeoordelingen niet. CNET toevoegen als favoriete Google-bron.
AI heeft geen ziel
AI-systemen hebben geen ziel, motieven, gevoelens of moraal. Ze ‘bekennen’ niet omdat ze zich door eerlijkheid gedwongen voelen, net zomin als een rekenmachine ‘verontschuldigingen’ aanbiedt als je op de verkeerde knop drukt. Dit systeem genereert tekstpatronen op basis van statistische relaties die zijn geleerd uit zeer grote datasets.
Alleen dat.
Alles wat menselijk aanvoelt, is een projectie van ons innerlijke leven in een zeer geavanceerde spiegel.
Antropomorfiserende AI geeft mensen een verkeerd beeld van wat deze systemen eigenlijk zijn. En dat heeft gevolgen. Wanneer we bewustzijn en emotionele intelligentie gaan toekennen aan een entiteit die niet echt bestaat, beginnen we AI te vertrouwen op een manier waarop het nooit de bedoeling was om het te vertrouwen.
Tegenwoordig wenden steeds meer mensen zich tot “ChatGPT Doctor”. medische begeleiding in plaats van te vertrouwen op bevoegde en gekwalificeerde artsen. Anderen wenden zich tot door AI gegenereerde reacties op gebieden zoals financiën, emotionele gezondheid en interpersoonlijke relaties. Sommige vormen afhankelijkheden pseudo-vriendschap met chatbots en hen om advies vragen, ervan uitgaande dat alles wat de LLM naar voren brengt “goed genoeg” is om hun beslissingen en acties te onderbouwen.
Hoe we over AI moeten praten
Wanneer bedrijven leunen op antropomorfe taal, vervagen ze de grens tussen simulatie en gevoel. Deze terminologie wekt verwachtingen, voedt angst en leidt de aandacht af van echte kwesties die eigenlijk onze aandacht verdienen: vooringenomenheid in datasets, misbruik door slechte actoren, veiligheid, betrouwbaarheid en machtsconcentratie. Geen van deze onderwerpen vereist mystieke metaforen.
Neem het recente lek van Anthropic over “zielsdocument,” wordt gebruikt om het karakter, de zelfperceptie en de identiteit van Claude Opus 4.5 uit te oefenen. Deze humoristische interne documentatie was nooit bedoeld om metafysische beweringen te doen – meer alsof de ingenieurs een debugging-gids bestudeerden. Maar de taal die deze bedrijven achter gesloten deuren gebruiken, zal onvermijdelijk doorsijpelen in de manier waarop het grote publiek erover discussieert. En zodra die taal blijft hangen, zal het ons denken over technologie bepalen, evenals de manier waarop we ons eromheen gedragen.
Of volg het onderzoek van OpenAI AI ‘sluw’ onderzoekwaarbij enkele zeldzame maar bedrieglijke reacties sommige onderzoekers ertoe brachten te concluderen dat het model opzettelijk bepaalde vermogens verborgen hield. Het onderzoeken van AI-resultaten is een goede gewoonte; wat impliceert dat de chatbot zijn eigen motieven of strategieën kan hebben. Het OpenAI-rapport zegt eigenlijk dat dit gedrag het resultaat is van trainingsgegevens en specifieke trends, en niet van tekenen van fraude. Maar vanwege het gebruik van het woord ‘sluw’ veranderde het gesprek in de bezorgdheid dat AI een soort sluwe agent zou zijn.
Er zijn betere, nauwkeurigere en technischere woorden. In plaats van ‘ziel’ te gebruiken, praat over architectuur of modeltraining. In plaats van ‘erkenning’, noem het foutrapportage of interne consistentiecontrole. Beschrijf het optimalisatieproces in plaats van het model een ‘schema’ te noemen. We moeten naar AI verwijzen met termen als trend, output, representatie, optimizer, modelupdate of trainingsdynamiek. Ze zijn niet zo dramatisch als ‘ziel’ of ‘bekentenis’, maar ze hebben het voordeel dat ze op de werkelijkheid zijn gebaseerd.
Om eerlijk te zijn, er is een reden waarom dit LLM-gedrag menselijk lijkt: bedrijven trainen ze om ons te imiteren.
Als auteur van de paper uit 2021″Over de gevaren van stochastische papegaaienEr wordt beweerd dat systemen die zijn gebouwd om de menselijke taal en communicatie te imiteren uiteindelijk dat zullen weerspiegelen: onze woorden, syntaxis, toon en teneur. Een dergelijke gelijkenis impliceert geen echt begrip. Dat wil zeggen, het model doet waarvoor het is geoptimaliseerd. Wanneer chatbots net zo overtuigend imiteren als chatbots kunnen, lezen we uiteindelijk mensen in machines, ook al bestaat zoiets niet.
Taal vormt de perceptie van mensen. Wanneer woorden slordig, magisch of opzettelijk antropomorf zijn, blijft de samenleving achter met een vertekend beeld. De vervorming komt slechts één groep ten goede: AI-bedrijven die profiteren van LLM’s lijken capabeler, nuttiger en menselijker dan ze in werkelijkheid zijn.
Als AI-bedrijven het vertrouwen van het publiek willen opbouwen, is de eerste stap eenvoudig. Houd op met het behandelen van taalmodellen als mystieke wezens met een ziel. Zij hebben geen gevoelens, wij wel. Onze woorden moeten dat weerspiegelen en niet verdoezelen.
Lees ook: Wat betekent dit in het AI-tijdperk?



