Home Nieuws Samenvatting van AI Agent 2025: wat er is gebeurd en wat u...

Samenvatting van AI Agent 2025: wat er is gebeurd en wat u volgend jaar kunt verwachten

12
0
Samenvatting van AI Agent 2025: wat er is gebeurd en wat u volgend jaar kunt verwachten

In de kunstmatige intelligentie2025 markeert een verandering in het keerpunt. Systemen die aanvankelijk beperkt waren tot onderzoekslaboratoria en prototypes beginnen zich te ontwikkelen tot alledaagse hulpmiddelen. De essentie van deze transitie is ontwaken AI-agentAI systemen die andere software kunnen gebruiken en zelfstandig kunnen handelen.

Hoewel onderzoekers AI al meer dan 60 jaar bestuderen en de term ‘agent’ al lang deel uitmaakt van het vocabulaire van het veld, is 2025 het jaar waarin het concept werkelijkheid wordt voor ontwikkelaars en consumenten.

AI-agenten gaan van theorie naar infrastructuur en veranderen de manier waarop mensen omgaan met grote taalmodellen en systemen met chatbots zoals ChatGPT.

In 2025 verschuift de definitie van een AI-agent ten opzichte van vroeger academisch kader een systeem dat begrijpt, redeneert en handelt volgens de beschrijving van AI-bedrijf Anthropic van een groot taalmodel dat softwaretools kan gebruiken en autonoom actie kan ondernemen. Hoewel grote taalmodellen lange tijd uitblinken in op tekst gebaseerde antwoorden, is een recente verandering hun toenemende vermogen om te handelen, tools te gebruiken, API’s aan te roepen, te coördineren met andere systemen en taken autonoom uit te voeren.

Deze verschuiving gebeurde niet van de ene op de andere dag. Een belangrijk keerpunt doet zich eind 2024 voor, wanneer Anthropic uitkomt Modelcontextprotocol. Met dit protocol kunnen ontwikkelaars grote taalmodellen op een gestandaardiseerde manier verbinden met externe tools, waardoor de modellen feitelijk meer kunnen doen dan alleen tekst genereren. Daarom wordt 2025 aangewezen als het jaar van de AI-agent.

AI-agenten zijn een compleet nieuw spel vergeleken met generatieve AI.

Mijlpalen die 2025 bepalen

Het momentum nam snel toe. In januari verschijnt het Chinese model DeepSeek-R1 als geopend gewicht Dit model verstoorde de aannames over wie grote, goed presterende taalmodellen zou kunnen bouwen, waardoor de markt kortstondig werd opgeschud en de mondiale concurrentie werd geïntensiveerd. Een open gewichtsmodel is een AI-model waarvan de training, weerspiegeld in waarden die gewichten worden genoemd, openbaar beschikbaar is. Gedurende 2025 zullen grote Amerikaanse laboratoria zoals Open AI, Antropisch, GooglenEn xAI brachten grotere, krachtigere modellen uit, terwijl Chinese technologiebedrijven, incl Alibaba, TencentEn Diep zoekenhet uitbreiden van het open model-ecosysteem tot hetzelfde punt als het Chinese model meer gedownload dan het Amerikaanse model.

Een ander keerpunt kwam in april, toen Google het introduceerde Agent2Agent-protocol. Terwijl het Anthropic Model Context Protocol zich richt op de manier waarop agenten tools gebruiken, richt Agent2Agent zich op de manier waarop agenten met elkaar communiceren. Het belangrijkste is dat de twee protocollen zijn ontworpen om samen te werken. Aan het eind van het jaar allebei Antropisch En Googlen schonken hun protocol aan de Linux Foundation, een non-profit open source softwareorganisatie, waardoor het een open standaard werd in plaats van een eigen experiment.

Deze ontwikkeling verspreidde zich snel naar consumentenproducten. Medio 2025 zullen ‘agent browsers’ verschijnen. Gereedschappen zoals Komeet van verwarring, Dia.Browser Bedrijf, OpenAI GPT-atlas, Copiloot op Microsoft Edge, Vrienden van ASI X Inc, Genspark MainFunc.ai, Opera Neon-operaen anderen herformuleren de browser als een actieve deelnemer, in plaats van als een passieve interface. In plaats van u te helpen bij het opzoeken van vakantiegegevens, speelt het bijvoorbeeld een rol bij het boeken van een vakantie.

Tegelijkertijd zijn workflowmakers er dol op n8n En Google Anti-zwaartekracht het verlagen van de technische barrières voor het creëren van aangepaste agentsystemen gaat verder dan wat er met vergelijkbare codeeragenten is gebeurd Cursor En GitHub-copiloot.

Nieuwe bevoegdheden, nieuwe risico’s

Naarmate agenten capabeler worden, worden hun risico’s moeilijker te negeren. In november onthulde Anthropic hoe zijn agent Claude Code is misbruikt om een ​​deel van de cyberaanval te automatiseren. Dit incident illustreert een bredere zorg: door repetitief technisch werk te automatiseren, kunnen AI-agenten ook de barrières voor kwaadwillige activiteiten verminderen.

Deze spanningen bepalen een groot deel van 2025. AI-agenten breiden uit wat individuen en organisaties kunnen doen, maar ze breiden ook uit wat bestaande kwetsbaarheden versterken. Systemen die ooit geïsoleerde tekstproducenten waren, raakten met elkaar verbonden, waarbij de actoren de tools gebruikten en met weinig menselijk toezicht werkten.

Het bedrijfsleven maakt zich op voor multi-agentsystemen.

Waar u op moet letten in 2026

Vooruitkijkend zullen verschillende open vragen waarschijnlijk vorm geven aan de volgende fase van AI-agenten.

Eén daarvan zijn benchmarks. Traditionele benchmarks, die lijken op gestructureerde examens met een gestandaardiseerde reeks vragen en beoordelingen, werken echter goed voor afzonderlijke modellen. agenten zijn samengestelde systemen bestaat uit modellen, tools, geheugen en beslissingslogica. Onderzoekers willen steeds vaker evaluaties uitvoeren niet alleen de resultaten, maar ook het proces. Dit is hetzelfde als leerlingen vragen hun werk te laten zien, in plaats van alleen maar antwoorden te geven.

Vooruitgang in dit opzicht is van cruciaal belang om de betrouwbaarheid en het vertrouwen te vergroten, en om ervoor te zorgen dat AI-agenten de taak zullen uitvoeren. Eén manier is om duidelijke definities vast te stellen AI-agenten en AI-workflows. Organisaties moeten in kaart brengen waar AI precies zal zijn integreren in workflows of nieuwe workflows introduceren.

Een andere opmerkelijke ontwikkeling is governance. Eind 2025 kondigde de Linux Foundation de oprichting aan van Stichting Agent AIbetekent een poging om gedeelde normen en best practices vast te stellen. Als het succesvol is, kan het een dergelijke rol spelen World Wide Web-consortium bij het vormen van een open en interoperabel agent-ecosysteem.

Er is ook een groeiende discussie over de grootte van het model. Terwijl grote modellen voor algemene doeleinden de krantenkoppen domineren, domineren kleinere, meer gespecialiseerde modellen vaak de krantenkoppen beter geschikt voor bepaalde taken. Naarmate agents configureerbare tools voor consumenten en bedrijven worden, hetzij via browsers of software voor workflowbeheer, verschuift de mogelijkheid om het juiste model te kiezen steeds meer naar de gebruiker, in plaats van naar het laboratorium of de onderneming.

Uitdagingen in het verschiet

Ondanks het optimisme blijven er aanzienlijke sociaal-technische uitdagingen bestaan. Uitbreiding van de datacenterinfrastructuur het energienet belasten en invloed uitoefenen op lokale gemeenschappen. Op de werkplek uiten agenten hun zorgen over automatisering, overdracht van takenen toezicht.

Vanuit een beveiligingsperspectief: het verbinden van modellen met tools en het samenstapelen van agenten verdubbel het risico onopgelost in grote, op zichzelf staande taalmodellen. In het bijzonder pakken AI-beoefenaars de gevaren aan snelle indirecte injectiewaar de opdrachten verborgen zijn in de open webruimte waar ze kunnen worden gelezen door AI-agenten en kunnen resulteren in kwaadwillige of ongewenste acties.

Regelgeving is een ander onopgelost probleem. Vergeleken met Europa En ChinaDe Verenigde Staten hebben relatief beperkt toezicht op algoritmische systemen. Nu AI-agenten steeds meer ingebed raken in het digitale leven, blijven vragen over toegang, verantwoordelijkheid en grenzen onbeantwoord.

Om deze uitdagingen te overwinnen is meer nodig dan alleen technische doorbraken. Het is veeleisend strikte technische praktijkenzorgvuldig ontwerp en duidelijke documentatie van hoe het systeem werkt en faalt. Ik geloof dat we alleen een innovatief en veilig AI-ecosysteem kunnen opbouwen door AI-agenten te behandelen als sociaal-technische systemen en niet alleen als softwarecomponenten.

Thomas Sherban von Davier is een aangesloten faculteitslid bij het Carnegie Mellon Institute for Strategy and Technology in Carnegie Mellon-universiteit.

Dit artikel is opnieuw gepubliceerd van Gesprek onder een Creative Commons-licentie. Lezen origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in