Toen ChatGPT in november 2022 werd gelanceerd, was de reactie onmiddellijk en diepgaand: het werkt. Voor het eerst hebben miljoenen mensen het ervaren AI niet als een verre belofte, maar als iets nuttigs, intuïtiefs en zelfs met zijn gebreken, zeer capabel.
Dat instinct klopte. De volgende conclusie is nee. Want wat goed werkt voor iemand die een toetsenbord gebruikt, blijkt in een organisatie niet effectief te zijn.
Twee jaar later, na miljarden dollars aan investeringen, talloze piloten en talloze ‘copiloten’, ontstaat er een andere realiteit: generatieve AI is geweldig in het genereren van taal. Maar bedrijven draaien niet op taal: ze draaien op geheugen, context, feedback en beperkingen. Dat is de kloof. En dat is de reden waarom veel AI-initiatieven van bedrijven stilletjes mislukken.
Hoge adoptie, lage impact… en een groeiend déjà vu-gevoel
Dit is geen verhaal over technologie die geen grip krijgt. Integendeel.
Een veel geciteerde Door MIT gesteunde analyse heb het gevonden Ongeveer 95% van de generatieve AI-proeven in ondernemingen leveren geen zinvolle resultaten opwaarbij slechts ongeveer 5% met succes een duurzame productie realiseert. Andere berichtgeving over dezelfde bevindingen laat hetzelfde patroon zien: massale experimenten, minimale transformatie.
En de verklaring is duidelijk genoeg: het probleem is niet het enthousiasme, of zelfs maar het vermogen: het is dat de bestaande instrumenten geen echte, operationele verandering teweegbrengen.
Dit is geen adoptieprobleem. Dit is een architectonisch probleem.
Een onaangename paradox: iedereen gebruikt AI, maar er verandert niets
In de meeste bedrijven bestaan er tegenwoordig twee realiteiten naast elkaar: aan de ene kant gebruiken werknemers voortdurend tools zoals ChatGPT. Ze organiseren, vatten samen, bedenken ideeën en versnellen hun werk op een manier die natuurlijk en effectief aanvoelt.
Aan de andere kant hebben officiële AI-initiatieven van bedrijven moeite om verder te komen dan zorgvuldig gecontroleerde pilots.
Dezelfde MIT-gerelateerde analyse legt dit uit Het vergroten van de ‘leerkloven’: individuen ontdekken snel waarde, maar organisaties slagen er niet in die waarde te integreren in kritische workflows. Het resultaat is iets dat lijkt op ‘schaduw-AI’: mensen gebruiken wat werkt, terwijl bedrijven investeren in wat niet werkt.
Het is geen weerstand tegen verandering.
Dat is een signaal.
Kernfout: taalmodellen behandelen als besturingssystemen
De meeste verklaringen voor deze fouten zijn gericht op de uitvoering: slechte gegevens, onduidelijke gebruiksscenario’s en gebrek aan training. Het is allemaal waar. Allemaal secundair.
Het echte probleem is eenvoudiger en veel fundamenteler: grote taalmodellen die zijn ontworpen om tekst te voorspellen. Alleen dat. Al het andere, van redeneren tot samenvatten, conversatie, enz., is een opkomende eigenschap van dat vermogen.
Maar het bedrijf opereert niet als een tekstketen. Ze functioneren als evoluerende systemen met toestand, geheugen, afhankelijkheden, prikkels en beperkingen.
Dit is een mismatch.
Zoals ik eerder heb aangegeven, dit is een zwakte van de kernarchitectuur van AI: LLM’s ‘zien’ de wereld niet. Ze handhaven geen persistente toestand. Ze leren niet van input uit de echte wereld, tenzij dit expliciet is ontworpen om dit te doen.
Ze produceren overtuigende taal over de werkelijkheid. Zij zijn er niet in actief.
Je kunt geen bedrijf runnen op basis van mond-tot-mondreclame
Dit leidt tot een patroon dat vertrouwd moet aanvoelen.
Vraag een LLM om:
- “Mijn omzet verhogen”
- “Ontwerp een go-to-market-strategie”
- “Teamprestaties verbeteren”
En je zult het antwoord krijgen. Vaak een hele goede. Gestructureerde, gearticuleerde en overtuigende antwoorden. En het staat vrijwel volledig los van de feitelijke systemen die het zou moeten beïnvloeden.
Omdat LLM’s geen pipelines kunnen volgen, incentives kunnen beheren, CRM-gegevens kunnen integreren of zich kunnen aanpassen op basis van resultaten. Dit kan een strategie beschrijven. Maar het kan het niet uitvoeren.
De bevindingen van MIT versterken dit: generatieve AI-tools zijn effectief voor flexibele individuele taken, maar ze werken niet in bedrijfscontexten die aanpassing, leren en integratie vereisen.
Met andere woorden: de LLM kan de memo schrijven. Maar daarmee kun je geen bedrijf runnen.
Meer computergebruik besteden aan een probleem zal het probleem niet oplossen
De reactie van de industrie tot nu toe was voorspelbaar: bouw grotere modellen, implementeer meer infrastructuur en schaal alles op. Maar schaal corrigeert geen ontwerpfouten. Als een systeem in werkelijkheid geen fundament heeft, zullen meer parameters geen fundament bieden. Als er geen geheugen is, zullen meer tokens geen geheugen bieden. Als er geen feedbackloops zouden zijn, zouden niet meer datacenters deze kunnen creëren.
Schaal versterkt wat er is. Het creëert niet wat ontbreekt. En wat hier ontbreekt is niet langer taal. Het is meer een wereld.
De volgende laag gaat niet over betere antwoorden
De volgende fase van zakelijke AI zal niet worden bepaald door betere chatinterfaces of krachtigere LLM’s. Dit zal door iets anders worden bepaald: systemen die de status kunnen handhaven, kunnen integreren in workflows, van resultaten kunnen leren en binnen beperkingen kunnen opereren.
Systemen die niet alleen tekst genereren, maar ook in echte omgevingen functioneren. Dit is de reden waarom de toekomst van AI in de onderneming niet alleen op LLM’s zal worden gebouwd, maar op een architectuur die hen verenigt in een rijker werkelijkheidsmodel.
Of, zoals ik in eerder werk heb betoogd, waarom wereldmodellen eerder basisvaardigheden zijn dan specifieke concepten.
Zeggen wat veel mensen al weten… maar zelden zeggen
Als dit voor de hand liggend lijkt, komt dat omdat veel mensen in de organisatie het hebben gezien: zij hebben de test uitgevoerd. Ze hebben de demo gezien. Zij hebben de kloof ervaren. Maar het hardop zeggen was nog steeds ongemakkelijk.
Er is te veel momentum, te veel investeringen en te veel verhalen opgebouwd rond het idee dat LLM-schaling uiteindelijk alles zal oplossen. Het zal niet gebeuren.
De keizer was niet alleen schaars gekleed. Hij droeg totaal de verkeerde kleding.
Echte kans
Dit is niet het einde van enterprise AI: het is het einde van misverstanden. Taalmodellen zijn geen bedrijfsarchitectuur: het zijn interfacelagen. Een sterke kracht, maar als het op zichzelf staat, is het niet genoeg.
Bedrijven die dit begrijpen, zullen AI niet alleen beter toepassen: ze zullen ook iets fundamenteel anders bouwen.
En als dat gebeurt, zal het opnieuw als een wonder voelen.
Maar deze keer was het geen illusie.



