Home Nieuws De CEO van LangChain betoogt dat betere modellen alleen uw AI-agenten niet...

De CEO van LangChain betoogt dat betere modellen alleen uw AI-agenten niet in productie zullen krijgen

4
0
De CEO van LangChain betoogt dat betere modellen alleen uw AI-agenten niet in productie zullen krijgen

Naarmate modellen intelligenter en capabeler worden, zou het ‘gebruik’ eromheen ook moeten evolueren. Deze ‘utilisatie-engineering’ is een uitbreiding van context-engineering, zei hij LangChain mede-oprichter en CEO Harrison Chase bij a nieuwe VentureBeat Beyond the Pilot-podcast aflevering. Terwijl traditioneel AI-gebruik de neiging heeft om modellen te beperken in het draaien in loops en het aanroepen van tools, zorgt het gebruik dat speciaal voor AI-agenten is gecreëerd ervoor dat ze autonomer kunnen communiceren en langetermijntaken effectief kunnen uitvoeren.

Ga er ook achteraan gezien de overname van OpenClaw door OpenAIvoerde aan dat het virale succes te danken was aan de bereidheid om het ‘te laten breken’ op een manier die geen enkel groot laboratorium zou kunnen – en vroeg zich af of de overname OpenAI daadwerkelijk dichter bij een veilige versie van het product van het bedrijf bracht. “De trend in het gebruik is om grote taalmodellen (LLM’s) meer controle te geven over context-engineering, waardoor deze kan beslissen wat hij ziet en wat hij niet ziet”, aldus Chase. “Nu kan het idee van een meer autonome en duurzame assistent worden geïmplementeerd.”

Volg de voortgang en behoud de samenhang

Hoewel het concept om LLM in een lus te laten draaien en tools aan te roepen relatief eenvoudig lijkt, is het moeilijk om dit op betrouwbare wijze uit te voeren, zei Chase. Een tijdlang lag het model “onder de bruikbaarheidsdrempel” en kon het niet iteratief worden uitgevoerd, dus gebruikten ontwikkelaars grafieken en schreven ketens om dit te omzeilen. Chase noemde AutoGPT – ooit het snelst groeiende GitHub-project aller tijden – als een waarschuwend voorbeeld: dezelfde architectuur als de topagenten van vandaag, maar het model was nog niet goed genoeg om betrouwbaar in een enkele lus te draaien, dus het vervaagde snel. Maar naarmate de LLM verbetert, kunnen teams een omgeving bouwen waarin modellen iteratief kunnen draaien en plannen kunnen maken voor een langere tijdshorizon, en kunnen ze dit gebruik blijven vergroten. Voorheen “kon je geen verbeteringen aan het harnas aanbrengen omdat je het model niet in het harnas kon laten draaien”, zei Chase. Het antwoord van LangChain hierop is Deep Agents, die aanpasbaar zijn multifunctioneel veiligheidstouw. Het is gebouwd op LangChain en LangGraph en beschikt over planningsmogelijkheden, een virtueel bestandssysteem, context- en tokenbeheer, code-uitvoering en vaardigheids- en geheugenfuncties. Bovendien kan hij taken delegeren aan subagenten; deze zijn gespecialiseerd in verschillende tools en configuraties en kunnen parallel werken. Contexten zijn ook geïsoleerd, wat betekent dat het werk van de subagent de context van de hoofdagent niet onoverzichtelijk maakt, en dat grote subtaakcontexten worden gecomprimeerd tot één resultaat voor tokenefficiëntie. Al deze agenten hebben toegang tot het bestandssysteem, legde Chase uit, en kunnen in wezen een lijst met taken maken die ze in de loop van de tijd kunnen uitvoeren en volgen. “Als ze doorgaan naar de volgende stap, en doorgaan naar de tweede stap, de derde stap of de vierde stap van het 200-stappenproces, dan is er een manier om hun voortgang te volgen en die samenhang te behouden,” zei Chase. “Kortom betekent dit dat de LLM zijn gedachten opschrijft terwijl hij bezig is.” Hij benadrukt dat het veiligheidscircuit zo moet worden ontworpen dat het model de samenhang over langere taken kan behouden, en ‘de eer kan opeisen’ voor het model bij het beslissen wanneer de context moet worden gecondenseerd op punten die het ‘voordelig’ acht. Bovendien zal het geven van toegang aan agenten tot codevertalers en BASH-tools de flexibiliteit vergroten. En door agenten uit te rusten met vaardigheden, en niet alleen met tools die ze aan de voorkant hebben, kunnen ze informatie laden wanneer ze die nodig hebben. “Dus in plaats van alles in één groot systeemcommando te coderen”, legt Chase uit, “kun je kleinere systeemcommando’s hebben. ‘Dit is de kernbasis, maar als ik X moet doen, laat me dan de vaardigheden voor AI lezen en vragen beantwoorden als: wat is een systeemcommando? Hoe wordt het gegenereerd? Is het statisch of gevuld? Als het een tooloproep doet en een antwoord terugkrijgt, hoe wordt het gepresenteerd? als ze slagen, slagen ze omdat ze de juiste context hebben, “zei Chase. “Ik beschouw context-engineering als het op het juiste moment naar de LLM brengen van de juiste informatie in het juiste formaat.” Luister naar de podcast en kom meer te weten over:

  • Hoe LangChain zijn stapel opbouwde: LangGraph als kernpijler, LangChain in het midden, Deep Agent bovenaan.

  • Waarom code-sandboxen het volgende grote ding zullen zijn

  • Hoe verschillende soorten UX zullen evolueren naarmate agenten over langere (of continue) intervallen vooruitgang boeken.

  • Waarom traceerbaarheid en waarneembaarheid essentieel zijn voor het bouwen van middelen die echt werken.

Je kunt ook luisteren en abonneren Verder dan piloot op Spotify, Appel of waar u uw podcasts ook vandaan haalt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in