De AI-agenten hebben absoluut plezier. Onder de recente viraliteit Open klauwen, Molt-boeken en Open AI is van plan de agentfuncties over te nemen naar het volgende niveau, misschien wel het jaar van de agent.
Waarom? Nou ja, ze kunnen plannen, code schrijvensurfen op internet en taken met meerdere stappen uitvoeren met weinig of geen toezicht. Sommigen beloven zelfs om uw workflow te organiseren. Anderen coördineren met tools en systemen op uw desktop.
De oproep is duidelijk. Het systeem reageert niet zomaar. Zij handeling – voor u en namens u. Maar als onderzoekers achterlopen MIT AI Agent-index Toen ze 67 ingezette agentsystemen catalogiseerden, ontdekten ze iets verontrustends.
Ontwikkelaars willen graag uitleggen wat hun agenten kunnen doen Doen. Ze willen minder graag uitleggen of deze agenten gelijk hebben veilig.
“AI-ontwikkelaars en toonaangevende startups zetten steeds vaker AI-systemen van agenten in die complexe taken kunnen plannen en uitvoeren met beperkte menselijke tussenkomst,” schreven de onderzoekers in de krant. “Er bestaat momenteel echter geen gestructureerd raamwerk voor het documenteren van de veiligheidskenmerken van agentsystemen.”
De kloof is duidelijk zichtbaar in de cijfers: ongeveer 70% van de geïndexeerde agenten levert documentatie en bijna de helft publiceert code. Toch maakte slechts ongeveer 19% formeel veiligheidsbeleid bekend, en minder dan 10% maakte melding van externe veiligheidsevaluaties.
Dit onderzoek benadrukt dat hoewel ontwikkelaars snel de mogelijkheden en praktische toepasbaarheid van agentsystemen prijzen, ze ook snel beperkte informatie verstrekken over veiligheid en risico’s. Het resultaat is flauwe transparantie.
Wat wordt beschouwd als een AI-agent
Onderzoekers bepalen doelbewust wat werkt, en niet alle chatbots komen daarvoor in aanmerking. Om opgenomen te worden, moet een systeem werken met ongedefinieerde doelen en doelen nastreven in de loop van de tijd. Regeringen moeten ook acties ondernemen die gevolgen hebben voor het milieu, met beperkte menselijke tussenkomst. Het is een systeem dat zelf de tussenstappen bepaalt. Ze kunnen brede instructies opsplitsen in subtaken, tools gebruiken, plannen, voltooien en herhalen.
Die autonomie maakt hen sterk. Dit verhoogt ook de inzet.
Wanneer een model alleen tekst uitvoert, wordt het falen meestal veroorzaakt door die ene uitvoer. Wanneer AI-agenten toegang krijgen tot bestanden, e-mails kunnen verzenden, aankopen kunnen doen of documenten kunnen wijzigen, kunnen fouten en exploits schadelijk zijn en zich over fasen verspreiden. Maar de onderzoekers ontdekten dat de meeste ontwikkelaars geen details publiceerden over hoe ze de scenario’s testten.
Capaciteiten zijn openbaar, vangrails niet
Het meest opvallende patroon in studie niet diep verborgen in een tabel – dit wordt door het hele artikel herhaald.
Ontwikkelaars delen graag demo’s, benchmarks en bruikbaarheid van deze AI-agents, maar ze zijn minder consistent in het delen van veiligheidsevaluaties, interne testprocedures of risico-audits van derden.
Deze onevenwichtigheid wordt belangrijker naarmate agenten van prototypes overstappen op digitale actoren die in echte workflows zijn geïntegreerd. Veel geïndexeerde systemen zijn actief in domeinen zoals software-engineering en computergebruik – omgevingen die vaak gevoelige gegevens en zinvolle controles met zich meebrengen.
De MIT AI Agent Index beweert niet dat agent AI als geheel onveilig is, maar laat wel zien dat naarmate de autonomie toeneemt, de gestructureerde transparantie met betrekking tot veiligheid dit niet kan bijhouden.
Deze technologie versnelt. De vangrail is, althans in het openbaar, nog steeds moeilijk te zien.



