Wat is de rol van vectordatabases in de wereld van AI-agenten? Dat is een vraag waar organisaties de afgelopen maanden mee te maken hebben gehad. Het verhaal heeft echt momentum. Wanneer grote taalmodellen worden uitgebreid naar contextvensters van miljoenen tokens, circuleert er een geloofwaardig argument onder ondernemingsarchitecten: speciaal gebouwde zoekvectoren zijn een noodoplossing, geen infrastructuur. Het geheugen van de agent zal het ophaalprobleem absorberen. Vectordatabases zijn een artefact uit het RAG-tijdperk.
Productiebewijs gaat de andere kant op.
Qdranthet in Berlijn gevestigde open source vectorzoekbedrijf kondigde donderdag een Series B van $ 50 miljoen aan, twee jaar na de Series A van $ 28 miljoen. De timing is geen toeval. Het bedrijf heeft ook versie 1.17 van zijn platform uitgebracht. Alles bij elkaar weerspiegelen ze een specifiek argument: het ophaalprobleem neemt niet af wanneer de agent arriveert. Het escaleert en wordt moeilijker.
“Mensen stellen elke paar minuten meerdere vragen”, vertelde Andre Zayarni, CEO en mede-oprichter van Qdrant, aan VentureBeat. “Agenten stellen honderden of zelfs duizenden vragen per seconde en verzamelen alleen maar informatie om een beslissing te kunnen nemen.”
Deze verschuiving verandert de infrastructuurbehoeften op manieren waarop implementaties uit het RAG-tijdperk nooit waren ontworpen.
Waarom agenten een ophaallaag nodig hebben die niet door geheugen kan worden vervangen
Agenten opereren op basis van informatie die ze nog nooit hebben bestudeerd: bedrijfsgegevens, actuele informatie, miljoenen documenten die voortdurend veranderen. Het contextvenster beheert de sessiestatus. Ze bieden geen zoekopdrachten met veel geheugen in die gegevens, behouden de kwaliteit van het ophalen wanneer de gegevens veranderen, of handhaven het volume van de zoekopdrachten die worden gegenereerd door autonome besluitvorming.
“De meeste AI-geheugenframeworks die er zijn, gebruiken een soort vectoropslag”, zegt Zayarni.
De implicatie is eenvoudig: zelfs tools die als geheugenalternatief zijn gepositioneerd, zijn afhankelijk van de onderliggende ophaalinfrastructuur.
Er ontstaan drie faalwijzen als de pick-uplaag niet op maat is gemaakt voor de belasting. Op documentschaal zijn verloren resultaten geen latentieprobleem; het is een probleem met de kwaliteit van de besluitvorming dat zich voordoet bij elk ophaalproces binnen de beurt van een agent. Onder schrijfbelasting neemt de relevantie af omdat nieuw opgenomen gegevens zich in niet-geoptimaliseerde segmenten bevinden voordat de indexering de achterstand inhaalt, waardoor zoekopdrachten op de meest recente gegevens langzamer en minder nauwkeurig worden in een tijd waarin actuele informatie er het meest toe doet. Binnen een gedistribueerde infrastructuur zorgt een enkele langzame replica voor latentie bij elke parallelle toolaanroep in een agentswitch – vertragingen die menselijke gebruikers onhandig vinden, maar autonome agenten zich niet kunnen veroorloven.
Qdrant’s 1.17 release pakt elk van deze problemen direct aan. Relevantiefeedbackvragen verbeteren de herinnering door de gelijkenisscores bij daaropvolgende opvragingen aan te passen met behulp van door modellen gegenereerde lichtsignalen, zonder het inbeddingsmodel opnieuw te trainen. De functie voor vertraagde implementatie voert query’s uit op de tweede replica wanneer de eerste replica een configureerbare latentiedrempel overschrijdt. De nieuwe clusterbrede telemetrie-API vervangt probleemoplossing per knooppunt door één weergave voor het hele cluster.
Waarom Qdrant geen vectordatabase meer wil heten
Bijna elke grote database ondersteunt nu vectoren als gegevenstype – van hyperscalers tot traditionele relationele systemen. Deze verschuiving heeft de concurrentievraag veranderd. Het gegevenstype is nu tafelinzetten. Wat gespecialiseerd blijft, is de kwaliteit van het plukken op productieschaal.
Dit verschil is de reden waarom Zayarni niet langer wil dat Qdrant een vectordatabase wordt genoemd.
“We bouwen een laag voor het ophalen van informatie voor het AI-tijdperk”, zei hij. “Er worden databases gebruikt om gebruikersgegevens op te slaan. Als de kwaliteit van zoekresultaten belangrijk is, heb je een zoekmachine nodig.”
Zijn advies voor teams die net beginnen: gebruik de ondersteuningsvectoren die al in je stapel zitten. Teams die migreren naar speciaal gebouwde capture zullen dit doen wanneer de schaal het probleem dwingt. “We zien elke dag bedrijven naar ons toekomen die zeggen dat ze met Postgres zijn begonnen en dachten dat het goed genoeg was – maar dat was het niet.”
De Qdrant-architectuur, geschreven in Rust, biedt geheugenefficiëntie en prestatiecontrole op laag niveau die talen op hoog niveau niet kunnen evenaren tegen dezelfde kosten. Een open source-basis combineert deze voordelen: feedback uit de gemeenschap en adoptie door ontwikkelaars zorgen ervoor dat een bedrijf ter grootte van Qdrant kan concurreren met leveranciers die over veel grotere technische middelen beschikken. “Zonder dat zouden we niet zijn waar we nu zijn”, zei Zayarni.
Hoe twee productieteams de beperkingen van een database voor algemeen gebruik ontdekten
Bedrijven die AI-productiesystemen op Qdrant bouwen, voeren hetzelfde argument vanuit een andere richting aan: agenten hebben een ophaallaag nodig, en conversatie- of contextueel geheugen is geen vervanging.
GlassDollar helpt bedrijven als Siemens en Mahle startups te evalueren. Zoeken is het kernproduct: gebruikers beschrijven behoeften in natuurlijke taal en halen een gerangschikte lijst van miljoenen bedrijven op. De architectuur voert zoekopdrachtuitbreiding uit op elk verzoek: één verzoek verspreidt zich over meerdere parallelle zoekopdrachten, waarbij elke kandidaat vanuit verschillende invalshoeken wordt opgehaald, voordat de resultaten worden gecombineerd en opnieuw gerangschikt. Dit is een patroon voor het ophalen van agenten, geen RAG-patroon, en vereist een speciaal ontworpen zoekinfrastructuur om het volume op peil te houden.
Het bedrijf migreert van Elasticsearch terwijl het opschaalt naar 10 miljoen geïndexeerde documenten. Na de overstap naar Qdrant heeft het bedrijf de infrastructuurkosten met ongeveer 40% verlaagd, lagen van op trefwoorden gebaseerde compensatie verwijderd om de relevantiekloof van Elasticsearch te compenseren, en zag de gebruikersbetrokkenheid met een factor drie toenemen.
“We meten succes af aan de opbrengsten”, vertelde Kamen Kanev, Chief Product Officer van GlassDollar, aan VentureBeat. “Als de beste bedrijven geen resultaten behalen, doet niets anders ertoe. Gebruikers verliezen het vertrouwen.”
Het geheugen en het uitgebreide contextvenster van de agent zijn ook niet voldoende om de werklast op te vangen die GlassDollar vereist.
“Dat is een infrastructuurprobleem, geen staatsbeheertaak”, zei Kanev. “Dit is niet iets dat kan worden opgelost door het contextvenster uit te breiden.”
Andere Qdrant-gebruikers zijn dat wel &AIdat infrastructuur bouwt voor octrooigeschillen. De AI-agent Andy voert semantische zoekopdrachten uit in honderden miljoenen documenten, verspreid over tientallen jaren en in meerdere rechtsgebieden. Octrooigemachtigden zullen niet handelen op basis van door AI gegenereerde juridische teksten, wat betekent dat alle resultaten die het bureau onthult gebaseerd moeten zijn op echte documenten.
“Onze hele architectuur is ontworpen om het risico op hallucinaties te minimaliseren door het ophalen primitief te maken, en niet generatiegebonden”, vertelde Herbie Turner, oprichter en CTO van &AI, aan VentureBeat.
Voor &AI hebben de agentlaag en de ophaallaag een verschillend ontwerp.
“Andy, onze patentagent, bouwde voort op Qdrant”, zei Turner. “De agent is de interface. De vectordatabase is de grondwaarheid.”
Drie signalen dat het tijd is om uit je huidige opstelling te stappen
Een praktisch uitgangspunt: gebruik de vectormogelijkheden die al in uw stapel zitten. De evaluatievraag is niet of u vectorzoekopdrachten moet toevoegen, maar wanneer uw huidige configuratie niet langer adequaat is. Drie signalen wijzen hierop: take-kwaliteit is rechtstreeks gekoppeld aan bedrijfsresultaten; vraagpatronen omvatten uitbreiding, herschikking in meerdere fasen of parallelle tooloproepen; of het gegevensvolume overschrijdt tientallen miljoenen documenten.
Op dat moment gaat de evaluatie over op operationele vragen: hoeveel inzicht biedt uw huidige opstelling in wat er gebeurt in het gedistribueerde cluster, en hoeveel prestatieruimte heeft deze naarmate het aantal agentquery’s toeneemt.
“Er is momenteel veel ophef over wat de ophaallaag vervangt”, zei Kanev. “Maar voor iedereen die een product bouwt waarbij de kwaliteit van het ophalen van het grootste belang is en het verlies aan opbrengst reële zakelijke gevolgen heeft, heb je een speciale zoekinfrastructuur nodig.”



