De consensus binnen de sector is dat 2026 het jaar van ‘agent AI’ zal zijn. We stappen snel af van chatbots die simpelweg tekst samenvatten. We betreden het tijdperk waarin autonome agenten taken uitvoeren. We verwachten van hen dat ze vluchten kunnen boeken, systeemstoringen kunnen diagnosticeren, de cloudinfrastructuur kunnen beheren en mediastreams in realtime kunnen personaliseren.
Als technologiemanager die toezicht houdt op een platform dat 30 miljoen gelijktijdige gebruikers bedient tijdens grote mondiale evenementen zoals de Olympische Spelen en de Super Bowl, heb ik de onsexy realiteit achter de hype gezien: agenten zijn kwetsbaar.
Leidinggevenden en VC’s zijn geobsedeerd door modelbenchmarks. Ze debatteren over Llama 3 versus GPT-4. Ze richten zich op het maximaliseren van de grootte van het contextvenster. Maar ze negeren het echte punt van mislukking. De belangrijkste reden waarom autonome agenten falen in de productie is vaak te wijten aan problemen met de gegevenshygiëne.
In het vorige tijdperk van ‘human-in-the-loop’-analyses was de datakwaliteit een beheersbare hindernis. Als de ETL-pijplijn problemen ondervindt, geeft het dashboard mogelijk onjuiste omzetcijfers weer. Een menselijke analist zou de anomalie vinden, signaleren en repareren. De explosieradius is onder controle.
In de nieuwe wereld autonome agentdat vangnet is verdwenen.
Als datakanalen tegenwoordig uiteenlopen, rapporteren agenten niet alleen verkeerde cijfers. Dit neemt de fout actie. Het biedt het verkeerde servertype. Het beveelt horrorfilms aan aan gebruikers die tekenfilms kijken. Het hallucineert antwoorden van de klantenservice op basis van kapotte vectorinbedding.
Om AI op NFL- of Olympische schaal uit te voeren, realiseerde ik me dat het standaard opschonen van gegevens niet voldoende was. We kunnen de gegevens niet zomaar “monitoren”. We moeten er wetgeving over maken.
Een oplossing voor dit specifieke probleem zou een raamwerk voor ‘datakwaliteit – vertrouwen’ kunnen zijn. Dit functioneert als een ‘dataconstitutie’. Het past duizenden automatische regels toe voordat een enkele byte aan gegevens het AI-model mag raken. Hoewel ik dit specifiek heb toegepast op de streamingarchitectuur bij NBCUniversal, is de methodologie universeel voor elk bedrijf dat een AI-agent wil operationeel maken.
Dit is de reden waarom “defensieve data-engineering” en Filosofie van het geloof is de enige manier om te overleven in het Agentic-tijdperk.
Vectordatabaseval
Het kernprobleem met AI-agenten is dat ze impliciet vertrouwen op de context die u biedt. Als u RAG gebruikt, is uw vectordatabase het langetermijngeheugen van de agent.
Standaardproblemen met de gegevenskwaliteit zijn catastrofaal vectordatabase. In traditionele SQL-databases zijn nulwaarden slechts nulwaarden. In vectordatabases kunnen nulwaarden of schema-mismatches de semantische betekenis van de gehele inbedding veranderen.
Overweeg een scenario waarin metagegevens worden verplaatst. Stel dat je kanaal videometagegevens opneemt, maar dat een raceconditie ervoor zorgt dat de tag ‘genre’ verloren gaat. Je metadata kunnen een video markeren als ‘live sport’, maar de insluiting wordt gegenereerd op basis van een ‘nieuwsfragment’. Wanneer de agent de database doorzoekt naar ’touchdown-hoogtepunten’, haalt hij het nieuwsfragment op omdat het zoeken naar vectorgelijkenis werkt op een foutief signaal. De agent levert de clip vervolgens aan miljoenen gebruikers.
Op grote schaal kun je niet vertrouwen op downstream monitoring om dit uit te zoeken. Tegen de tijd dat het anomaliealarm afgaat, heeft de agent al duizenden slechte beslissingen genomen. Kwaliteitscontrole moet naar de absolute “linkerkant” van de pijplijn verschuiven.
Het “Creed”-raamwerk: 3 principes om te overleven
Dat Vertrouwen Van het raamwerk wordt verwacht dat het als poortwachter fungeert. Het is een kwaliteitsarchitectuur met meerdere tenants die zich tussen opnamebronnen en AI-modellen bevindt.
Voor technologieleiders die hun eigen ‘grondwet’ willen opbouwen, zijn hier drie niet-onderhandelbare principes die ik aanbeveel.
1. Verplicht “quarantaine”-patroon: In veel moderne data-organisaties geven ingenieurs de voorkeur aan een ‘ELT’-aanpak. Ze dumpen de onbewerkte gegevens in een meer en ruimen deze later op. Voor AI-agenten is dit onaanvaardbaar. Je kunt agenten niet laten drinken uit een vervuild meer.
Dat Vertrouwen Deze methodologie implementeert strikte wachtrijen met dode letters. Als een datapakket het contract schendt, wordt het onmiddellijk in quarantaine geplaatst. Het bereikt nooit de vectordatabase. Het is veel beter voor een agent om te zeggen “Ik weet het niet” vanwege ontbrekende gegevens, dan om te liegen vanwege slechte gegevens. Dit ‘stroomonderbreker’-patroon is belangrijk om hoge niveaus van hallucinaties te voorkomen.
2. Regeling is wet: Door de jaren heen evolueert de industrie naar ‘schemaloze’ flexibiliteit om snel te kunnen handelen. We moeten deze trend in het kern-AI-netwerk keren. We moeten strikte type- en referentiële integriteit afdwingen.
Mijn ervaring is dat sterke systemen schaal nodig hebben. De implementatie die ik heb begeleid is momenteel van kracht meer dan 1.000 actieve regels loopt over realtime streams. Het is niet alleen maar controleren op nul. Ze controleren de consistentie van de bedrijfslogica.
-
Voorbeeld: Komt het ‘user_segment’ in de gebeurtenisstroom overeen met de actieve taxonomie in het functiearchief? Zo niet, blokkeer dan.
-
Voorbeeld: Zijn de tijdstempels binnen een acceptabel latentievenster voor realtime gevolgtrekking? Zo niet, laat het vallen.
3. Controle van de vectorconsistentie Dit is een nieuwe grens voor SRE. We moeten automatische controles implementeren om ervoor te zorgen dat tekstfragmenten die in een vectordatabase zijn opgeslagen, daadwerkelijk overeenkomen met de inbeddingsvectoren waarmee ze zijn geassocieerd. “Stille” fouten in de API voor het insluiten van modellen laten u vaak met vectoren achter die niets betekenen. Hierdoor pikt de agent pure ruis op.
Cultuuroorlogen: ingenieurs versus ingenieursregering
Implementeer een raamwerk zoals Vertrouwen niet alleen een technische uitdaging. Dit is een culturele kwestie.
Ingenieurs hebben over het algemeen een hekel aan vangrails. Zij beschouwen restrictieve schema’s en datacontracten als bureaucratische obstakels die de snelheid van implementatie vertragen. Bij het invoeren van dataconstituties stuiten leiders vaak op weerstand. Het team had het gevoel dat ze terugkeerden naar het ‘waterval’-tijdperk van rigide databasebeheer.
Om succesvol te zijn, moet je de incentivestructuur op zijn kop zetten. Dat hebben wij laten zien Vertrouwen is eigenlijk een versneller. Door de zuiverheid van de invoergegevens te garanderen, elimineren we weken van tijd die wetenschappers besteden aan het debuggen van modelhallucinaties. We veranderen data governance van een compliance-taak naar een ‘quality of service’-garantie.
Lessen voor databeslissers
Als u een AI-strategie voor 2026 aan het ontwikkelen bent, stop dan met het kopen van nog meer GPU’s. Maak je geen zorgen meer over welk basismodel deze week iets hoger op het scorebord staat.
Begin met het controleren van uw datacontracten.
AI-agenten kunnen alleen autonoom zijn als hun gegevens betrouwbaar zijn. Zonder zo’n strikte en automatische dataconstitutie Vertrouwen raamwerk, zal uw agent uiteindelijk een schurkenstaat worden. In de wereld van SRE is een malafide agent veel erger dan een kapot dashboard. Het is een stille moordenaar van vertrouwen, omzet en klantervaring.
Manoj Yerrasani is een senior technologiemanager.
Welkom bij de VentureBeat-community!
In ons gastenprogramma delen technische experts inzichten en geven ze onpartijdige, diepgaande uitleg over AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van ondernemingen vormgeven.
Lees meer uit ons gastenpostprogramma — en bekijk het eens richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!



