De afgelopen twee jaar is kunstmatige intelligentie het voelt vreemd plat aan.
Grote taalmodellen verspreiden zich in een ongekend tempo, maar ze nemen ook een groot deel van de concurrentiegradiënt weg. Iedereen heeft toegang tot dezelfde modellen, dezelfde interfaces en steeds vaker dezelfde antwoorden. Wat aanvankelijk een technologische revolutie leek, begon al snel op een nutsvoorziening te lijken: krachtig, indrukwekkend en grotendeels uitwisselbaar, een dynamiek die al zichtbaar is in snelle commoditisering van basismodellen bij providers zoals OpenAI, Google, Anthropic en Meta.
De uitlijning is geen toeval. LLM’s zijn in één ding heel goed: leren van teksten– maar structureel niet in staat om iets anders te doen: begrijpen hoe de echte wereld zich gedraagt. Zij modelleer geen causaliteitzij leer niet van fysieke of operationele feedbacken zij bouw geen interne representatie van de omgeving opbelangrijk beperkingen wat zelfs hun meest prominente aanhangers nu openlijk toegeven.
Ze voorspellen woorden, geen gevolgen, een verschil dat vooral duidelijk wordt wanneer deze systemen wordt gevraagd buiten het puur taalkundige domein te opereren.
Verkeerde keuzes belemmeren de AI-strategie
De meeste AI-strategieën zijn tegenwoordig gevangen in binair denken. Bedrijven ‘huren intelligentie’ van generieke modellen, of ze proberen het allemaal zelf te bouwen: een eigen infrastructuur, op maat gemaakte compute-stacks en op maat gemaakte AI-pijplijnen die hyperscalers nabootsen.
Een dergelijke framing is onrealistisch en historisch analfabeet.
- De meeste bedrijven zijn op dat moment nog niet concurrerend bouwen hun eigen database.
- Ze schrijven niet zelf besturingssysteem.
- Ze bouwen niet grootschalige datacenters om waarde uit analyses te halen.
In plaats daarvan adopteren ze een gemeenschappelijk platform en bouwen ze systemen die in hoge mate zijn afgestemd op die platforms, systemen die hun specifieke processen, beperkingen en prikkels weerspiegelen.
AI zal hetzelfde pad volgen.
Het wereldmodel is geen infrastructuurproject
Wereldmodellen, systemen die leren hoe de omgeving zich gedraagt, feedback opnemen en voorspellingen en planning mogelijk maken, hebben ze lange intellectuele geschiedenis in AI-onderzoek.
Onlangs deden ze dat opnieuw opduiken als een belangrijke onderzoeksrichting juist omdat LLM niet beweegt wanneer het wordt geconfronteerd met de realiteit, causaliteit en tijd.
Er wordt vaak beschreven dat ze verticale integratie op elke laag vereisen. Die veronderstelling is verkeerd.
De meeste bedrijven zullen geen speciale datacenters of eigen compute-stacks bouwen om wereldmodellen uit te voeren. Verwacht dat ze hetzelfde herhalen dezelfde fouten die we zagen in eerdere ‘AI-first’- of ‘cloud-native’-verhalenwaar infrastructuurambities worden verward met strategische behoeften.
Wat er feitelijk zal gebeuren zal subtieler en krachtiger zijn: de wereld zal een model worden een nieuwe abstractielaag in de enterprise-stackgebouwd op een gemeenschappelijk platform, op dezelfde manier als databases, ERP en cloudanalyses dat vandaag de dag zijn.
De infrastructuur zal gedeeld eigendom zijn. Het begrip zal niet plaatsvinden.
Waarom platforms de modellen van de wereld alomtegenwoordig zullen maken
Hetzelfde als cloudplatforms democratiseren de toegang tot grootschalige computingopkomende AI-platforms zullen het modelleren van de wereld toegankelijk maken zonder dat bedrijven hun stapels opnieuw hoeven uit te vinden. Ze zullen omgaan met simulatie-engines, trainingspijplijnen, integratie met sensoren en systemen, en zware computerbelastingen – precies de richting die we al zien in versterkend leren, roboticaEn industrieel AI-platform.
Dit maakt het wereldmodel niet tot een handelswaar. Dit is eigenlijk het tegenovergestelde.
Wanneer platformlagen worden gedeeld, gaat de differentiatie naar boven. Bedrijven concurreren niet in termen van wie eigenaar is van de hardware, maar in termen van hoe goed hun modellen de werkelijkheid weerspiegelen: welke variabelen ze bevatten, hoe ze beperkingen coderen, hoe feedbackloops worden ontworpen en hoe snel voorspellingen worden gecorrigeerd als de wereld het er niet mee eens is.
Twee bedrijven kunnen op hetzelfde platform draaien en toch met zeer verschillende niveaus van begrip opereren.
Van taalkundige intelligentie tot operationele intelligentie
De LLM niveau’s AI-adoptie omdat het taalkundige intelligentie universeel maakt. Maar systemen die puur op tekst zijn getraind, missen een diepere contextuele basis, causaal redeneren en temporeel begrip, beperkingen die goed zijn gedocumenteerd in fundamenteel modelleringsonderzoek. Het wereldmodel zou dit opnieuw vereenvoudigen door context, causaliteit en tijd opnieuw te introduceren, eigenschappen die ontbreken in systemen die puur op tekst zijn getraind.
In de logistiek wordt bijvoorbeeld geen winst behaald door chatbots te vragen naar supply chain-optimalisatie. Het zal afkomstig zijn een model het begrijpt het hoe vertragingen optreden, hoe voorraadbeslissingen interageren met de variabiliteit van de vraag, en hoe kleine veranderingen in het systeem plaatsvinden in de loop van weken of maanden.
Waar concurrentievoordeel echt tot leven komt
De echte differentiatie zou epistemisch zijn, en niet infrastructureel.
Het zal afkomstig zijn hoe gedisciplineerd een bedrijf is als het gaat om datakwaliteithoe strak het is het sluiten van de feedbacklus tussen voorspellingen en uitkomsten (Onthoud deze zin: Feedback is alles wat je nodig hebt), en hoe de organisatorische prikkels afgestemd zijn op leren versus narratief gemak. Het wereldmodel beloont bedrijven die bereid zijn zich door de realiteit te laten corrigeren straf degenen die dat niet doen.
Het platform zal veel uitmaken. Maar platforms standaardiseren alleen vaardigheden, geen kennis. Gedeelde infrastructuur leidt niet tot gedeeld begrip: twee bedrijven kunnen op dezelfde cloud draaien, hetzelfde AI-platform gebruiken, zelfs dezelfde basistechnieken toepassen, maar toch heel verschillende resultaten behalen, omdat het begrip niet is ingebed in de infrastructuur. Dit komt voort uit de manier waarop bedrijven hun eigen realiteit modelleren.
Het begrip ligt op een hoger niveau, in de keuzes die het platform niet voor je kan maken: welke variabelen belangrijk zijn, welke afwegingen reëel zijn, welke beperkingen bindend zijn, wat telt als succes, hoe feedback wordt verwerkt en hoe fouten worden gecorrigeerd. Met een platform kun je een model van de wereld bouwen, maar het kan je niet vertellen wat jouw wereld eigenlijk is.
Zie het zo: niet elk bedrijf dat SAP gebruikt, heeft hetzelfde operationele inzicht. Elk bedrijf dat AWS draait, beschikt niet over dezelfde analytische verfijning. De infrastructuur wordt gedeeld; het mentale model niet. Hetzelfde geldt voor het wereldmodel.
Platforms maken het wereldmodel mogelijk. Begrip maakt ze waardevol.
De volgende enterprise AI-stack
In de volgende fase van AI zal het concurrentievoordeel niet voortkomen uit het bouwen van eigen infrastructuur. Dit zal worden bereikt door betere modellen van de werkelijkheid te bouwen bovenop een platform dat wereldmodellering alomtegenwoordig maakt.
Dit is een veel moeilijkere uitdaging dan het kopen van rekenkracht. En dit is een probleem dat geen enkele hoeveelheid snelle engineering kan oplossen.



