Home Nieuws Claude Code is zojuist bijgewerkt met een van de meest gevraagde functies...

Claude Code is zojuist bijgewerkt met een van de meest gevraagde functies van gebruikers

11
0
Claude Code is zojuist bijgewerkt met een van de meest gevraagde functies van gebruikers

De open source-standaard van Anthropic, Model Context Protocol (MCP), uitgebracht eind 2024stelt gebruikers in staat om AI-modellen en de agenten er bovenop te verbinden met externe tools in een gestructureerd en betrouwbaar formaat. Dit is de motor achter het succes van Anthropic Gebruikmakend van AI-agentprogrammering, Claude Codewaardoor het onmiddellijk toegang heeft tot functies zoals surfen op het web en het maken van bestanden.

Maar er is één probleem: Claude Code moet doorgaans de instructiehandleiding voor elke beschikbare tool ‘lezen’, ongeacht of de tool nodig is voor de onmiddellijke taak, met behulp van de beschikbare context die anders zou kunnen worden ingevuld met meer informatie uit gebruikersverzoeken of reacties van agenten.

In ieder geval tot gisteravond. Het Claude Code-team heeft een update uitgebracht wat deze vergelijking fundamenteel verandert. Deze functie, genaamd MCP Tool Search, introduceert ‘lui laden’ voor AI-tools, waardoor agenten alleen dynamisch tooldefinities kunnen ophalen wanneer dat nodig is.

Deze verschuiving transformeert AI-agenten van brute force-architecturen in iets dat lijkt op moderne software-engineering – en volgens vroege gegevens lost het effectief het ‘bloat’-probleem op dat het ecosysteem dreigde te belemmeren.

‘Initiële belasting’ op agenten

Om het belang van zoekhulpmiddelen te begrijpen, moeten we de frictie van eerdere systemen begrijpen. Model Context Protocol (MCP), in 2024 door Anthropic uitgebracht als open source-standaard, is ontworpen als een universele standaard voor het verbinden van AI-modellen met gegevensbronnen en tools – van GitHub-opslagplaatsen tot lokale bestandssystemen.

Naarmate het ecosysteem echter groeit, groeit ook de ‘initiële belasting’.

Tariq Shihipar, technisch staflid bij Anthropic, benadrukte de omvang van het probleem aankondiging.

“We ontdekten dat MCP-servers tot wel 50+ tools kunnen hebben”, schreef Shihipar. “Door de gebruiker gedocumenteerde installatie met meer dan 7 servers met behulp van meer dan 67.000 tokens.”

In praktische termen betekent dit dat ontwikkelaars die een geavanceerde set tools gebruiken, 33% of meer van de beschikbare contextvensterlimiet van 200.000 tokens kunnen opofferen voordat ze zelfs maar één teken van een commando typen, zoals AI-nieuwsbriefschrijver Aakash Gupta wijst erop in een bericht op X.

Het model ‘leest’ effectief honderden pagina’s met technische documentatie voor tools die mogelijk nooit tijdens de sessie worden gebruikt.

Gemeenschapsanalyse levert een nog duidelijker voorbeeld op.

Gupta merkte verder op dat een enkele Docker MCP-server 125.000 tokens kan gebruiken, alleen al om de 135 tools te definiëren.

‘Oude beperkingen dwongen brute offers’, schreef hij. “Beperk je MCP-server tot 2-3 kerntools, of accepteer dat de helft van je contextbudget op is voordat je aan de slag gaat.”

Hoe zoekhulpmiddelen werken

De oplossing die Anthropic heeft gelanceerd – die Shihipar ‘een van onze meest gevraagde functies’ noemt GitHub” — elegant in zijn terughoudendheid. In plaats van elke definitie vooraf te laden, controleert Claude Code nu het contextgebruik.

Volgens de release notes detecteert het systeem automatisch wanneer een toolbeschrijving meer dan 10% van de beschikbare context zal gebruiken.

Wanneer deze drempel wordt overschreden, verandert het systeem van strategie. In plaats van onbewerkte documentatie in de prompt te dumpen, laadt het een lichtgewicht zoekindex.

Wanneer een gebruiker om een ​​specifieke actie vraagt, bijvoorbeeld ‘deploy this container’, scant Claude Code de enorme lijst met 200 vooraf geladen opdrachten niet. In plaats daarvan doorzoekt het de index, vindt de relevante tooldefinities en plaatst het die specifieke tools eenvoudigweg in hun context.

“Search Tools zet de architectuur op zijn kop”, analyseert Gupta. “De tokenbesparingen waren dramatisch: van ~134k tot ~5k in de interne tests van Anthropic. Dat is een reductie van 85% terwijl de volledige toegang tot de tools behouden blijft.”

Voor ontwikkelaars die MCP-servers onderhouden, verandert dit de optimalisatiestrategie.

Shihipar merkt op dat het veld ‘serverinstructies’ in de MCP-definitie (wat voorheen een ‘nice to have’ was) nu erg belangrijk is. Dit fungeert als metagegevens die Claude helpen “te weten wanneer hij naar uw gereedschap moet zoeken, vergelijkbaar met vaardigheden.”

‘Lazy Loading’ en nauwkeurigheidsverbeteringen

Hoewel tokenbesparingen de belangrijkste maatstaf zijn (geld en geheugen besparen zijn altijd populair), kan een secundair effect van deze update belangrijker zijn: focus.

LLM’s zijn notoir gevoelig voor “ruis”. Wanneer het contextvenster van een model gevuld is met duizenden regels irrelevante gereedschapsdefinities, neemt het vermogen om te redeneren af. Dit creëert een “naald in een hooiberg”-probleem waarbij het model moeite heeft onderscheid te maken tussen vergelijkbare commando’s, zoals ‘user-send-notification’ versus ‘send-notification-channel’.

Boris Cherny, hoofd van Claude Code, benadrukte dit punt zijn reactie op de lancering van X: “Elke Claude Code-gebruiker krijgt meer context, betere instructies en de mogelijkheid om meer tools te installeren.”

De gegevens ondersteunen dit. Uit interne benchmarks die door de community worden gedeeld, blijkt dat het inschakelen van Tool Search de nauwkeurigheid van het Opus 4-model op MCP-evaluaties verbetert van 49% naar 74%.

Voor de nieuwere Opus 4.5 steeg de nauwkeurigheid van 79,5% naar 88,1%.

Door de afleiding van honderden ongebruikte tools te elimineren, kan het model zijn aandachtsmechanismen wijden aan de daadwerkelijke vragen van de gebruiker en aan relevante actieve tools.

Het rijpen van de stapel

Deze update duidt op volwassenheid in de manier waarop we omgaan met AI-infrastructuur. In de begindagen van elk softwareparadigma was brute kracht alledaags. Maar naarmate systemen evolueren, wordt efficiëntie een grote technische uitdaging.

Aakash Gupta vergelijkt de evolutie van Integrated Development Environments (IDE’s) met VSCode of JetBrains. “De barrière is niet ’te veel tools’.

Het laadt tooldefinities zoals statische imports uit 2020, en niet luie ladingen uit 2024″, schreef hij. “VSCode laadt niet elke extensie bij het opstarten. JetBrains laadt niet elk plug-indocument in het geheugen.”

Door ‘lui laden’ toe te passen – een standaard best practice in web- en softwareontwikkeling – erkent Anthropic dat AI-agents niet langer slechts een nieuwigheid zijn; het zijn complexe softwareplatforms die architecturale discipline vereisen.

Implicaties voor het ecosysteem

Voor eindgebruikers is de update naadloos: Claude Code voelt ‘slimmer’ aan en bevat meer gespreksgeheugen. Maar voor het ontwikkelaarsecosysteem zet dit de sluizen open.

Voorheen bestond er een ‘zachte grens’ voor hoe bekwaam een ​​agent kon zijn. Ontwikkelaars moeten hun tools zorgvuldig structureren om lobotomie van modellen met buitensporige context te voorkomen. Met Tool Search worden deze beperkingen effectief verwijderd. Een agent zou in theorie toegang kunnen hebben tot duizenden tools – databaseconnectors, scripts voor cloudimplementatie, API-wrappers, lokale bestandsmanipulatoren – zonder een boete te betalen totdat de tool daadwerkelijk wordt gebruikt.

Dit verschuift de ‘contexteconomie’ van een schaarstemodel naar een toegangsmodel. Zoals Gupta samenvat: “Ze optimaliseren niet alleen het gebruik van context. Ze veranderen ook de betekenis van ’toolrijke agent’.”

De update wordt binnenkort uitgerold voor gebruikers van Claude Code. Voor ontwikkelaars die MCP-clients bouwen, raadt Anthropic aan om `ToolSearchTool` te implementeren om dit dynamische laden te ondersteunen, zodat wanneer de toekomst van de agent aanbreekt, deze niet zonder geheugen komt te zitten voordat hij zelfs maar hallo zegt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in