Lior Pozin was er verlicht van AI infrastructuur begin 2025. Als CEO AutoDSAls AI-aangedreven automatiseringsplatform voor e-commerce heeft hij zijn team ertoe aangezet AI-functies snel te implementeren, in de overtuiging dat snelheid het succes zal bepalen.
AutoDS werd opgestart en bereikte uiteindelijk 1,8 miljoen gebruikers, genereerde meer dan $1 miljard aan gebruikersinkomsten en stapte met succes over naar Fiverr. Sinds de oprichting heeft het bedrijf een snelle ontwikkeling doorgemaakt, een plek waar snelheid van strategisch belang is en snelle implementatie aanvoelt als de natuurlijke manier van werken. Maar toen het team van Pozin van pilot naar productie ging, beseften ze dat snelheid alleen niet genoeg was. Alleen AI resultaten opleveren wanneer de juiste databasis en eigendomsstructuur aanwezig zijn.
“Zonder goed bestuur, dataorganisatie en toegang kan AI niet opschalen”, aldus Pozin Snel bedrijf. “Toen we die basis eenmaal hadden gelegd, veranderde alles. AI was niet langer een functie, maar werd onderdeel van de manier waarop we werken.”
Deze ervaring is niet uniek voor AutoDS. Tegen 2025 realiseren bedrijven zich dit in sommige sectoren snel pas AI op schaal toe ze moeten de ongemakkelijke realiteit onder ogen zien over hun infrastructuur, hun aannames over AI-capaciteiten en hun bereidheid om oninteressante problemen op te lossen voordat ze transformatieve problemen nastreven. Hoewel dit jaar begon met grote beloften, bleek het minder te gaan over doorbraken en meer over het rekening houden met de werkelijkheid.
Uit de geleerde lessen blijkt dat de sector groeit. In plaats van een sterker model op te bouwen of eenvoudigweg kapitaal aan te trekken, wordt de industrie volwassener door uit te zoeken wat echt werkt als de demo eindigt en het echte werk begint.
HOOFDINFRASTRUCTUUR OF NIETS ANDERS IS BELANGRIJK
Begin 2024 lanceerde het databasebedrijf RavenDB het verkennen van de creatie van een AI-assistent voor zijn documentatie in samenwerking met Microsoft. Dit project viel uiteindelijk uit elkaar. Volgens oprichter Oren Eini zit het probleem niet bij het AI-model zelf, maar bij alles eromheen.
Gegevens moeten door meerdere systemen gaan voordat ze het model bereiken, en updates vereisen handmatige tussenkomst. De hele opzet is afhankelijk van kwetsbare verbindingen die op elk moment kunnen verbreken. Voor databasebedrijven is de ironie moeilijk te missen.
Deze ervaring maakte het team iets belangrijks duidelijk: AI moest dieper in de database worden geïntegreerd om betrouwbaar, voorspelbaar en schaalbaar te zijn.
Voor Eini is dit geen tegenslag, maar eerder een signaal dat de omringende architectuur net zo belangrijk is als het model zelf. Dat besef vormde de basis voor het recente werk van RavenDB AI-agent en mogelijkheden die rechtstreeks in de databaselaag zijn ingebouwd, waardoor modellen nauwer samenwerken met de gegevens waarop ze vertrouwen en zich voorspelbaarder kunnen gedragen in productieomgevingen.
In AutoDS vertalen deze veranderingen zich in een meer doelbewuste aanpak. Het team richt zich op het inbouwen van een gedeelde datalaag in het leveringsplatform en het duidelijker eigenaarschap van AI-initiatieven, waardoor producten zoals door AI aangedreven winkelbouwers betrouwbaarder door het hele bedrijf kunnen worden geschaald.
Deze verschuiving vereist geduld. Het team van Pozin stopte met het najagen van wat er indrukwekkend uitzag en begon te volgen wat belangrijk is: tijdbesparing, grotere nauwkeurigheid en versnelde besluitvorming. “Succes betekent nu dat AI de manier waarop we werken echt verbetert, en niet alleen de manier waarop we het gebruiken”, aldus Pozin.
EFFICIËNTIE REGELS RUWE VERMOGEN
Terwijl het grootste deel van de AI-industrie een groter model nastreven en meer computergebruik tegen 2025, oogeen softwarebedrijf voor telecommunicatie met diepgaande ervaring op het gebied van AI, heeft dit jaar prioriteit gegeven aan efficiëntie. Het team richt zich op het ontwerpen en verfijnen van systemen die betrouwbare prestaties leveren zonder overmatige computerbelasting. Die focus is van cruciaal belang voor de manier waarop Oculeus AI toepast in de telecommunicatie, waar zijn systemen worden gebruikt om fraudepatronen en afwijkend gedrag in realtime te detecteren.
In die omgeving legt Arnd Baranowski, de CEO van het bedrijf, uit dat “voorspelbaarheid belangrijker is dan nieuwigheid, omdat valse positieven en inconsistente resultaten onmiddellijke financiële en operationele risico’s met zich meebrengen.”
“AI-algoritmen en -technologieën, die gepaard gaan met enorme computer- en energieverbruik, zijn de verkeerde weg”, voegde Baranowski eraan toe. Zijn kritiek ging verder dan de hardware en trok de acceptatie van de hardware door de industrie in twijfel niet-deterministisch systeem die verschillende outputs produceert voor dezelfde input. “Training moet een 100% deterministisch antwoord opleveren. Als dat niet het geval is, is er iets mis.”
Dit standpunt druist in tegen de hype rond grote taalmodellen, die willekeur als een kenmerk beschouwen. Voor Baranowski is de les voor 2025 eenvoudig: AI-systemen winnen alleen vertrouwen als ze zich consistent en betrouwbaar gedragen onder reële bedrijfsomstandigheden.
Eini is het ook met die mening eens. Bij RavenDB is het doel niet om de slimste AI te bouwen. Het bouwt een voorspelbare AI die routinetaken zonder drama kan uitvoeren. “We willen niet per se ‘slimme’ AI,” zei Eini. “Wij willen voorspelbare AI.”
Als De computerkosten zijn nog steeds hoog en het energieverbruik een publieke zorg is, zal 2026 de voorkeur geven aan bedrijven die meer willen doen met minder middelen dan bedrijven die nog steeds de grootste modellen nastreven.
VERTROUWEN VEREIST GRENZEN
In 2024 beloofde een chatbot van Air Canada niet-bestaande kortingen op rouwtarieven aan klanten. De luchtvaartmaatschappij werd verantwoordelijk gehouden. Deze zaak legt een probleem bloot dat in 2025 onvermijdelijk zal zijn: AI-agenten zijn niet zo goed te vertrouwen als werknemers.
Eini heeft het botweg geformuleerd. Een bankbediende is gebonden aan beleid en consequenties. AI-agenten niet. “Ik beschouwde ze als werknemers van wie ik wist dat ze kwetsbaar waren voor omkoping”, zei hij. “Het is belangrijk om bewust grenzen te stellen aan hun handelen en actief beschermende maatregelen te implementeren.”
Deze beperkingen nemen een praktische vorm aan. Bij AutoDS heeft Pozin een speciaal team samengesteld om de AI-uitvoer te verifiëren en ervoor te zorgen dat het systeem nauwkeurige brongegevens ontvangt. Bij RavenDB ontwikkelde en implementeerde het team een keten van toestemmingsprocedures en duidelijke grenzen rond waartoe AI-agenten toegang hebben of wat ze kunnen beloven.
Dit leren omvat meer dan alleen technische bescherming. AI-agenten bevinden zich in de grijze zone tussen tools en actoren. Ze reageren op instructies, maar zijn minder veroordelend. Ze voeren hun taken uit, maar kunnen de gevolgen niet overzien. Deze realiteit vereist een nieuw verantwoordingskader dat er niet van uitgaat dat goede training goed gedrag garandeert.
Bloeiende organisaties in 2026 zullen de implementatie van AI in de eerste plaats overwegen als een kwestie van vertrouwen. Dit betekent transparantie over mogelijkheden en beperkingen, duidelijke verwachtingen voor gebruikers en systemen die zijn ontworpen om veilig te falen als er iets misgaat.
KLEINE OPLOSSINGEN VERSLAAN DE MAANSCHOT
Het grootste AI-verhaal dit jaar concentreerde zich op autonome voertuigen, kunstmatige algemene intelligentie (AGI)– waarvan AI-wetenschapper Yann LeCun zegt dat het slechts een illusie is – en een model worden dat hele beroepen vervangt. Maar de bedrijven die vooruitgang boeken, zijn eigenlijk op iets anders gefocust: het op grote schaal oplossen van kleine, ontwrichtende problemen.
“De grootste veranderingen zullen komen door het oplossen van veel kleine problemen, en niet door slechts één grote, alwetende AI”, aldus Eini. “Kwantiteit heeft een geheel eigen kwaliteit, en het wegnemen van veel kleine knelpunten zal in het algemeen resulteren in veel hogere snelheden.”
RavenDB stelt vaste teamleden in staat om binnen enkele dagen AI-functies te bouwen in plaats van te wachten tot de beste technici deze goedkeuren en uitvoeren. AutoDS meet succes op basis van de vraag of AI werknemers sneller en efficiënter maakt, en niet op basis van het aantal AI-projecten dat momenteel wordt uitgevoerd. De resultaten zijn individueel bescheiden maar collectief transformatief.
Een jaar eerder waren veel bedrijven bezig met AI op zichzelf, door pilots in te zetten die er in demo’s indrukwekkend uitzagen, maar nooit opschaalden. In 2025 verschuift de focus naar meetbare impact. Eini vergelijkt het met de manier waarop we water momenteel drinkbaar maken, een praktijk die zo alledaags is dat niemand erover nadenkt. “Net zoals geldautomaten of self-checkout-diensten de hele wereld niet fundamenteel hebben veranderd, maar ons leven zoveel beter hebben gemaakt, denk ik dat we daar nog veel van zullen zien”, vertelde hij me. “De hoeveelheid verandering zal een transformerend effect hebben.”
VOORBEREIDING IS BELANGRIJKER DAN REACTIE
Steve Brierley bouwt geen AI in 2025. Als CEO van een quantumcomputerbedrijf rivier padhij was er getuige van hoe onvoorbereid de industrie was toen ChatGPT op de markt kwam. “Dat AI-explosie laat zien hoeveel industrieën niet voorbereid waren toen tools als ChatGPT plotseling populair werden, waardoor bedrijven moesten worstelen met regelgeving, schaalbaarheid, datagereedheid en consolidatie, en ook de kloof tussen het personeelsbestand en de vaardigheden vergrootten”, aldus Brierley.
De conclusie: begrijp opkomende technologieën vroegtijdig om op uitdagingen te anticiperen in plaats van op crises te reageren. Kwantumcomputing komt sneller dan veel mensen denken, en dit zal geen kleine vooruitgang zijn. “AI blinkt uit in het analyseren en genereren van inzichten uit data, terwijl quantum computing de creatie van nieuwe soorten data mogelijk zal maken”, aldus Brierley. “Samen zullen ze een veel grotere verkenning, ontdekking en innovatie mogelijk maken dan de technologie ooit kan bereiken.”
Gilles Thonet, adjunct-secretaris-generaal bij Internationale Elektrotechnische Commissiezie dezelfde dynamiek in de regelgeving. Als AI-regels Wanneer dit beleid in 2025 van kracht wordt, zullen bedrijven moeite hebben om wettelijke vereisten te vertalen naar de operationele realiteit. “Internationale normen zijn van cruciaal belang om het vertrouwen in deze transformatieve technologie te vergroten”, aldus Thonet.
WAT GEBEURDE DAARNA
De lessen die we uit 2025 hebben geleerd, wijzen op een de toekomst van AI gebaseerd op de operationele realiteit en niet op sensatie. De bedrijven die die verandering leiden, bouwen infrastructuur, stellen grenzen en lossen echte problemen op in plaats van de krantenkoppen na te jagen.
Maar er zijn nu nieuwe uitdagingen ontstaan. Sheetal Mehta, mondiaal hoofd cyberbeveiligingsdiensten bij NTT-gegevenswaarschuwt dat de mogelijkheden van AI steeds groter worden productiviteit winsten worden bewapend. “Agent AI“De snelheid en het vermogen van Google om autonoom te leren en beslissingen te nemen, kunnen ook worden uitgebuit door cybercriminelen, waardoor het bedrijf kwetsbaar wordt voor nieuwe aanvallen en onverwachte beveiligingsproblemen”, aldus Mehta.
Dit betekent dat er in 2026 betere bescherming nodig is, en niet alleen betere systemen. Organisaties moeten AI-beveiliging, bestuur en ethiek als fundamenteel beschouwen en niet als optioneel.
Pozin heeft de verandering vrij scherp vastgelegd. “De volgende fase van AI zal AI zijn die met ons meeleeft, elke dag van ons leert en ons geeft wat we nodig hebben, net op tijd. AI zal niet langer als een hulpmiddel voelen. Het zal voelen als een teamgenoot die je echt begrijpt”, zei hij.
Eini verwoordt het eenvoudiger: “We gaan verder dan aanvankelijke ontzag en maken gebruik van een transparant instrument dat dingen voor elkaar krijgt.”
Niet AGI. Geen volledige automatisering. Alleen AI werkt betrouwbaar, voorspelbaar en lost problemen op zonder nieuwe problemen te creëren. Voor een sector die er jaren over heeft gedaan om succes te boeken, is dat misschien wel het meest ambitieuze doel.


