In de afgelopen drie jaar is AIDit doorbraakmoment gebeurde bijna volledig via tekst. We typen een opdracht, krijgen een antwoord en gaan verder met de volgende taak. Hoewel deze intuïtieve stijl van interactie chatbots van de ene op de andere dag in huishoudelijke hulpmiddelen heeft veranderd, schetst het nauwelijks de oppervlakte van wat de meest geavanceerde technologie van onze tijd daadwerkelijk kan doen.
Deze ontkoppeling heeft een aanzienlijke kloof gecreëerd in de manier waarop consumenten AI gebruiken. Hoewel de onderliggende modellen snel multimodaal worden – in staat om spraak, beeld en video in realtime te verwerken – gebruiken de meeste consumenten ze nog steeds als zoekmachines. Vooruitkijkend naar 2026 geloof ik dat de volgende adoptiegolf niet alleen over nut zal gaan, maar over de evolutie van alleen statische tekst naar dynamische, meeslepende interacties. Dit is wat AI 2.0 is: niet alleen sneller informatie ophalen, maar intelligentie waarnemen via geluid, beeld, beweging en realtime context.
De adoptie van AI heeft een omslagpunt bereikt. Tegen 2025 het wekelijkse gebruikersbestand van ChatGPT verdubbeld van ongeveer 400 miljoen in februari tot 800 miljoen aan het eind van het jaar. Concurrenten als Gemini en Anthropic zien een vergelijkbare groei, maar de meeste gebruikers communiceren nog steeds voornamelijk met LLM via tekstchatbots. In werkelijkheid, Deloitte Connected Consumentenonderzoek laat zien dat, ook al experimenteert meer dan de helft (53%) van de consumenten met generatieve AI, de meeste mensen AI nog steeds overlaten aan administratieve taken zoals schrijven, samenvatten en onderzoek doen.
Maar als je verder kijkt dan alleen AI naar het digitale gedrag van consumenten, is het duidelijk dat consumenten verlangen naar meeslepende ervaringen. Volgens Activeer de Tech & Media Outlook 2026 van Consulting, 43% Generatie Z geeft de voorkeur aan dergelijke door gebruikers gegenereerde platforms TikTok en YouTube dan traditionele tv of betaalstreaming, en ze besteden 54% meer tijd op sociale videoplatforms dan de gemiddelde consument, waardoor ze de traditionele media achter zich laten en zich wenden tot interactieve sociale platforms.
Dit zorgt voor een fundamentele mismatch: consumenten leven in een multisensorische wereld, maar hun AI-tools blijven steken in het leveren van platte tekst. Zelfs nu de industrie deze kloof onderkent en investeert om deze te dichten, voorspel ik dat we een fundamentele verschuiving zullen zien in de manier waarop mensen AI gebruiken en creëren. In AI 2.0 zullen gebruikers niet langer eenvoudigweg door AI gegenereerde inhoud consumeren, maar multimodale AI inzetten om stem, beeld en tekst samen te brengen, waardoor ze hun ervaringen in realtime kunnen vormgeven en sturen.
MULTIAI CAPITAL ONTGRENDELT MEESLEPENDE VERHALEN
Als AI 1.0 prioriteit geeft aan efficiëntie, dan geeft AI 2.0 prioriteit aan betrokkenheid. Hoewel op tekst gebaseerde AI beperkt is in termen van publieksbetrokkenheid, stelt multimodale AI gebruikers in staat actieve deelnemers te worden. In plaats van een verhaal te lezen, kun je communiceren met de hoofdpersonen en de verhaallijn een nieuwe richting inslaan, of je eigen wereld bouwen waarin het verhaal en de personages zich samen met jou ontwikkelen.
We kunnen de game-industrie ter waarde van 250 miljard dollar beschouwen als een blauwdruk voor het potentieel dat multimodale AI heeft. Videogames combineren beeld, audio, verhaal en real-time agency, waardoor meeslepende ervaringen ontstaan die traditioneel entertainment niet kan repliceren. Met platforms als Roblox en Minecraft kunnen spelers inhoud bewonen. Roblox alleen dagelijks meer dan 100 miljoen gebruikers bereikendie gezamenlijk tientallen miljarden uren per jaar doorbrengen ondergedompeld in deze wereld; betrokkenheid die tekst alleen niet kan genereren.
Met de opkomst van multimodale AI zullen gebruikers overal ter wereld de ervaringen kunnen creëren waaraan ze graag deelnemen door middel van gaming. Door technische barrières weg te nemen, zorgt multimodal ervoor dat iedereen ervaringen kan opbouwen die niet alleen authentiek aanvoelen in de echte wereld, maar er ook actief aan deelnemen. Ook oudere media spelen in op deze trend. Onlangs Disney aangekondigd een investering van $1 miljard in OpenAI en een licentieovereenkomst waarmee gebruikers via het Sora-platform korte clips kunnen maken met personages uit Marvel, Pixar en Star Wars.
WAAROM MULTIAI CAPITAL KAN VEILIGER ZIJN VOOR JONGERE GEBRUIKERS
Nu AI onderdeel wordt van het dagelijks leven, is veiligheid – vooral voor jonge gebruikers – een van de meest kritieke problemen geworden waarmee de sector wordt geconfronteerd.
Door van open chat naar een gestructureerde, multimodale wereld te gaan, konden we vangrails in de gameplay ontwerpen. In plaats van te vertrouwen op voortdurende ongestructureerde aanwijzingen, zijn deze omgevingen opgebouwd rond gedefinieerde personages, beelden, geluiden en verhaalwerelden. Interacties worden geleid door de ervaring zelf. De structuur verandert hoe en waar veiligheid in het systeem wordt ontworpen.
Educatieve AI is een voorbeeld van deze aanpak. Platforms zoals Khan Academy Kids en Duolingo combineren beeld, audio en gestructureerde aanwijzingen om het leerproces te begeleiden. AI probeert niet alles te zijn; het concentreert zich goed op één taak. Naarmate multimodale AI zich ontwikkelt, kan een van de meest betekenisvolle kansen het vermogen zijn om creatieve vrijheid in evenwicht te brengen met doordachte beperkingen. AI 2.0 vertegenwoordigt een ontwerpverschuiving die bouwers, docenten en gezinnen nieuwe manieren kan bieden om veiligere, doelgerichtere digitale ruimtes voor de volgende generatie vorm te geven.
WAAROM MULTIMODALE AI DE VOLGENDE GRENS IS
Ik voorspel dat consumenten in 2026 niet meer door AI zullen worden aangestuurd; het wordt een meer meeslepende interactieve ervaring. Dit boeit mij omdat gebruikers niet alleen maar passief output ontvangen; ze zullen actief ervaringen vormgeven en de AI-ontwikkeling in realtime beïnvloeden. We kunnen zien dat gebruikers de nieuwste afleveringen van hun favoriete tv-programma’s remixen, of dat studenten geschiedenis leren, niet door leerboeken te lezen, maar door actief te debatteren over historisch nauwkeurige AI-simulaties.
Voor oprichters en makers is de volgende stap het stoppen met het bouwen van tools uitsluitend voor efficiëntie en het bouwen van omgevingen voor meeslepende ervaringen en verkenning. De winnaars van de volgende cyclus zullen niet degenen zijn met de slimste modellen, maar degenen die AI minder nuttig maken en meer een bestemming voor rijke, interactieve ervaringen.
Karandep Anand is de CEO van Character.AI
Deadlineverlenging voor Fast Company’s Prijs voor wereldveranderende ideeën is vrijdag 19 december om 23:59 uur. PT. Solliciteer vandaag nog.



