Home Nieuws AI-agenten kunnen met elkaar praten – ze kunnen nog niet samen nadenken

AI-agenten kunnen met elkaar praten – ze kunnen nog niet samen nadenken

17
0
AI-agenten kunnen met elkaar praten – ze kunnen nog niet samen nadenken

AI-agenten kunnen nu met elkaar praten; ze begrijpen niet wat de andere agent probeert te doen. Dat is het probleem dat Cisco Outshift probeert op te lossen met een nieuwe architecturale benadering, genaamd Internet of Cognition.

De kloof is praktisch: protocollen zoals MCP en A2A agenten berichten laten uitwisselen en hulpmiddelen identificeren, maar ze delen niet dezelfde intentie of context. Zonder dit systeem putten multi-agentsystemen de coördinatiecycli uit en kunnen ze niet combineren wat ze leren.

“Het komt erop neer dat we berichten kunnen sturen, maar de agenten begrijpen elkaar niet, dus er is geen sprake van een basis, onderhandeling, coördinatie of gedeelde intentie”, vertelde Vijoy Pandey, algemeen directeur en senior vice-president van Outshift, aan VentureBeat.

Praktische impact:

Denk aan een patiënt die een afspraak plant met een specialist. Met alleen MCP stuurt de symptoombeoordelingsagent de diagnosecode door naar de planningsagent, die beschikbare afspraken zoekt. Verzekeringsagenten verifiëren de dekking. Apotheekagenten controleren de beschikbaarheid van medicijnen.

Elke agent doet zijn werk, maar geen van hen houdt gezamenlijk rekening met de behoeften van de patiënt. Een farmaceutisch middel kan een medicijn aanbevelen dat in strijd is met de geschiedenis van de patiënt – informatie die het symptomatische middel wel heeft, maar niet overbrengt omdat “potentiële geneesmiddelinteracties” niet binnen zijn reikwijdte vallen. De planningsagent boekt de dichtstbijzijnde beschikbare afspraak zonder te weten dat de verzekeringsagent bij een andere faciliteit een betere dekking heeft gevonden.

De twee zijn met elkaar verbonden, maar niet op elkaar afgestemd in hun doelstellingen: het vinden van de juiste behandeling voor de specifieke situatie van deze patiënt.

De huidige protocollen richten zich op de communicatiemechanismen van agenten: MCP, A2A en AGNTCY Outshiftdat werd gedoneerd aan de Linux Foundation, stelt agenten in staat tools te ontdekken en berichten uit te wisselen. Maar het werkt op wat Pandey ‘connectiviteits- en identificatielagen’ noemt. Ze hebben te maken met syntaxis, niet met semantiek.

Het ontbrekende stukje is context en gedeelde intentie. Een agent die een taak voltooit, weet wat hij doet en waarom, maar die redenen worden niet doorgegeven als hij deze aan een andere agent overdraagt. Elke agent interpreteert doelen onafhankelijk, wat betekent dat coördinatie constante verduidelijking vereist en geleerde inzichten afzonderlijk blijven opgeslagen.

Als agenten van communicatie naar samenwerking willen overstappen, moeten ze volgens Outshift drie dingen delen: patroonherkenning tussen datasets, oorzaak-gevolgrelaties tussen acties en duidelijke doeltoestanden.

“Zonder gedeelde doelen en context zullen AI-agenten semantisch geïsoleerd blijven. Ze zijn individueel capabel, maar hun doelen zullen anders worden geïnterpreteerd; de coördinatie zal door cycli heen branden en er zal niets worden gecombineerd. Eén agent leert iets waardevols, maar de hele organisatie met meerdere menselijke agenten begint nog steeds vanaf nul.” Outshift zei in een krant. Outshift zegt dat de industrie behoefte heeft aan ‘agentsystemen op bedrijfsniveau die open, interoperabel en semantisch samenwerken’ en stelt een nieuwe architectuur voor, het ‘Internet of Cognition’ genaamd, waarin multi-agentomgevingen in een gedeeld systeem werken.

De voorgestelde architectuur introduceert drie lagen:

Cognitiestatusprotocol: De semantische laag die bovenop het protocol voor het doorgeven van berichten zit. Agenten delen niet alleen gegevens, maar ook intenties: wat ze willen bereiken en waarom. Hierdoor kunnen agenten doelen op één lijn brengen voordat ze handelen, in plaats van ze achteraf te verduidelijken.

Cognitie stof: Infrastructuur voor het opbouwen en onderhouden van een gedeelde context. Zie het als gedistribueerd werkgeheugen: een contextgrafiek die blijft bestaan ​​tijdens alle agentinteracties, met beleidscontrole over wat wordt gedeeld en wie er toegang toe heeft. Systeemontwerpers kunnen bepalen hoe een ‘gezond verstand’ eruit ziet voor hun gebruiksscenario.

Cognitiemotor: Twee soorten vaardigheden. Accelerators stellen agenten in staat inzichten te verzamelen en leerervaringen te verzamelen. De ontdekkingen van één agent zijn toegankelijk voor andere agenten die gerelateerde problemen oplossen. Vangrails handhaven nalevingsgrenzen, zodat gemeenschappelijke oorzaken de grenzen van regelgeving of beleid niet schenden.

Outshift positioneert dit raamwerk als een oproep tot actie, niet als een eindproduct. Het bedrijf werkt aan de implementatie ervan, maar benadrukt dat samenwerking tussen semantische agenten sectorbrede coördinatie vereist – net zoals vroege internetprotocollen ondersteuning nodig hadden om standaarden te worden. Outshift is bezig met het schrijven van code, het publiceren van specificaties en het vrijgeven van onderzoek rond het Internet of Cognition. Ze hopen het protocol binnenkort te kunnen demonstreren. Noah Goodman, mede-oprichter van het toonaangevende AI-bedrijf Humans& en hoogleraar computerwetenschappen aan Stanford, zei op VentureBeat’s AI Impact-evenement in San Francisco dat innovatie plaatsvindt wanneer “andere mensen weten op welke mensen ze moeten letten.” Dezelfde dynamiek is van toepassing op agentsystemen: wanneer individuele agenten leren, vermenigvuldigt hun waarde zich wanneer andere agenten die kennis kunnen identificeren en exploiteren. Een praktische vraag voor teams die vandaag de dag multi-agentsystemen implementeren: zijn uw agenten alleen maar met elkaar verbonden, of werken ze echt aan hetzelfde doel?

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in