Home Nieuws Contextual AI heeft Agent Composer gelanceerd om zakelijke RAG’s om te zetten...

Contextual AI heeft Agent Composer gelanceerd om zakelijke RAG’s om te zetten in productieklare AI-agents

7
0
Contextual AI heeft Agent Composer gelanceerd om zakelijke RAG’s om te zetten in productieklare AI-agents

In de race om kunstmatige intelligentie in de onderneming te brengen, doet een kleine maar goed gefinancierde startup een stoutmoedige bewering: het probleem dat de adoptie van AI in complexe industrieën belemmert, is niet het model zelf.

Contextuele AIeen twee en een half jaar oud bedrijf gesteund door investeerders incl Bezos-expeditie En Bain Capital Venturesmaandag werd het gelanceerd Componist-agenteen platform dat is ontworpen om ingenieurs in de lucht- en ruimtevaart, de productie van halfgeleiders en andere veeleisende technische gebieden te helpen AI-agenten te bouwen die de soorten kennisintensieve werkzaamheden kunnen automatiseren die zich lange tijd tegen automatisering hebben verzet.

Deze aankondiging komt op een belangrijk moment voor zakelijke AI. Vier jaar nadat ChatGPT een golf aan zakelijke AI-initiatieven teweegbracht, zitten veel organisaties nog steeds vast in pilotprogramma’s en hebben ze moeite om experimentele projecten naar volledige productie te brengen. Chief Financial Officers en leiders van businessunits werden ongeduldig door de interne inspanningen die miljoenen dollars hadden gekost, maar slechts een beperkt rendement opleverden.

Beste KeelaCEO van Contextual AI is van mening dat de industrie zich richt op de verkeerde barrières. “Dit model is op dit moment bijna een commodity”, zei Kiela in een interview met VentureBeat. “Het knelpunt is de context: kan AI echt toegang krijgen tot uw documenten, specificaties en institutionele kennis? Dat is het probleem dat we oplossen.”

Contextueel AI Agent Composer Platform, dat kant-en-klare sjablonen en tools biedt voor sectoren als de lucht- en ruimtevaart, halfgeleiderindustrie en productie. (Credit: contextuele AI)

Waarom zakelijke AI blijft falen en de augmented generatie pakt wat gerepareerd moet worden

Om te begrijpen wat Contextuele AI wordt uitgeprobeerd, helpt het om een ​​concept te begrijpen dat centraal heeft gestaan ​​in de moderne AI-ontwikkeling: generatie-augmented retrieval, of RONDE.

Wanneer grote taalmodellen zoals die zijn afgeleid van Open AI, Googlenof Antropisch reacties genereren, gebruiken ze de kennis die tijdens de training is ingebed. Maar die kennis is beperkt in de tijd en kan niet de bedrijfseigen documenten, technische specificaties en institutionele kennis omvatten die de levensader van de meeste bedrijven vormen.

Het RAG-systeem probeert dit probleem op te lossen door relevante documenten uit de eigen database van een bedrijf op te halen en deze samen met gebruikersvragen in het model in te voegen. Het model kan zijn antwoorden vervolgens baseren op daadwerkelijke bedrijfsgegevens, in plaats van uitsluitend op training te vertrouwen.

Kiela hielp bij het pionieren van deze aanpak tijdens haar tijd als wetenschappelijk onderzoeker bij Facebook AI-onderzoek en daarna als hoofd onderzoek bij Knuffelend gezichtinvloedrijk open source AI-bedrijf. Hij heeft een Ph.D. uit Cambridge en was adjunct-professor in symbolische systemen aan Stanford University.

Maar het oorspronkelijke RAG-systeem, geeft Kiela toe, was ruw.

“Vroege RAG’s waren behoorlijk ruig: neem een ​​beschikbare retriever, sluit hem aan op een generator en hoop er het beste van”, zei hij. “De fouten worden steeds erger. Hallucinaties komen vaak voor omdat generatoren niet zijn getraind om verbonden te blijven met aarde.”

Toen Kiela werd opgericht Contextuele AI in juni 2023 probeert het dit probleem systematisch op te lossen. Het bedrijf ontwikkelde wat het een ‘unified context layer’ noemt: een set tools die zich tussen de gegevens van een bedrijf en zijn AI-modellen bevindt, en ervoor zorgt dat de juiste informatie de modellen in het juiste formaat op het juiste moment bereikt.

Deze aanpak heeft erkenning gekregen. Gebaseerd op een casestudy van Google Cloud bereikt Contextuele AI dit hoogste prestatie in de FACTS-benchmark van Google voor geaarde, hallucinatiebestendige resultaten. Het bedrijf verbeterde Meta’s open source Llama-model op het Vertex AI-platform van Google Cloud, met een bijzondere focus op het verminderen van de neiging van AI-systemen om informatie te creëren.

Inside Agent Composer, een platform dat belooft complexe technische workflows om te zetten in minuten werk

Componist-agent breidt het bestaande Contextual AI-platform uit met orkestratiemogelijkheden: de mogelijkheid om meerdere AI-tools in meerdere stappen te coördineren om complexe workflows te voltooien.

Het platform biedt drie manieren om AI-agenten te creëren. Gebruikers kunnen beginnen met kant-en-klare agenten die zijn ontworpen voor algemene technische workflows, zoals analyse van de hoofdoorzaak of nalevingscontroles. Ze kunnen workflows in natuurlijke taal beschrijven en het systeem automatisch een werkende agentarchitectuur laten genereren. Of ze kunnen helemaal opnieuw bouwen met behulp van een visuele interface met slepen en neerzetten, waarvoor geen codering nodig is.

Wat Agent Composer onderscheidt van de aanpak van zijn concurrenten, zegt het bedrijf, is de hybride architectuur. Teams kunnen strikte, deterministische regels voor stappen met een hoog risico – nalevingscontroles, gegevensvalidatie, goedkeuringspoorten – combineren met dynamisch redeneren voor verkennende analyses.

“Voor zeer kritische workflows kunnen gebruikers volledig deterministische stappen kiezen om het gedrag van agenten te controleren en onzekerheid te voorkomen”, aldus Kiela.

Het platform bevat ook wat het bedrijf noemt “Agentoptimalisatie met één klik“, waarbij feedback van gebruikers nodig is en de prestaties van de agent automatisch worden aangepast. Elke stap van het redeneringsproces van de agent kan worden gecontroleerd, en de reacties worden geleverd met citaten op zinsniveau die aangeven waar de informatie vandaan komt in het brondocument.

Van acht uur tot twintig minuten: wat vroege klanten zeggen over de prestaties van het platform in de echte wereld

Contextuele AI zei dat vroege klanten aanzienlijke efficiëntieverbeteringen hadden gemeld, hoewel het bedrijf erkende dat deze cijfers voortkwamen uit zelfrapportage van klanten en niet uit onafhankelijke verificatie.

“Dit komt rechtstreeks voort uit klantbeoordelingen, die schattingen zijn van workflows in de echte wereld”, aldus Kiela. “De cijfers worden door onze klanten zelf gerapporteerd, omdat ze de voor- en na-scenario’s van de implementatie van contextuele AI weergeven.”

Niettemin waren de geclaimde resultaten verrassend. Geavanceerde fabrikanten verminderen de analyse van de hoofdoorzaak van acht uur naar twintig minuten door het parseren van sensorgegevens en logcorrelatie te automatiseren. Een gespecialiseerd chemiebedrijf bracht productonderzoek terug van uren naar minuten door gebruik te maken van agenten die patenten en regelgevende databases doorzoeken. Fabrikanten van testapparatuur produceren nu testcode binnen enkele minuten in plaats van dagen.

Keith Schaub, vice-president technologie en strategie bij meest geavanceerdeeen bedrijf voor testapparatuur voor halfgeleiders biedt ondersteuning. “Contextuele AI is een cruciaal onderdeel geworden van onze inspanningen op het gebied van AI-transformatie”, aldus Schaub. “Deze technologie is ingezet bij meerdere teams bij Advantest en geselecteerde eindklanten, waardoor aanzienlijke tijd wordt bespaard bij taken, van het genereren van testcodes tot de engineeringworkflows van klanten.”

Andere zakelijke klanten zijn onder meer Qualcommhalfgeleidergigant; SchipBobeen op technologie gebaseerde logistieke dienstverlener die beweert een 60 keer snellere probleemoplossing te bereiken; En Nvidiachipfabrikanten wier grafische processors de meeste AI-systemen aandrijven.

Het eeuwige bedrijfsdilemma: moeten bedrijven hun eigen AI-systemen bouwen of hun eigen systemen kopen?

Misschien wel de grootste uitdaging Contextuele AI waar we mee te maken hebben zijn niet concurrerende producten, maar eerder het instinct van technische organisaties om hun eigen oplossingen te bouwen.

“Het grootste bezwaar was: ‘we gaan het zelf bouwen’”, geeft Kiela toe. “Sommige teams proberen het. Het klinkt leuk om te doen, maar het is erg moeilijk om dit op grote schaal goed te doen. Veel van onze klanten beginnen met doe-het-zelf en merken dat ze 12 tot 18 maanden later nog steeds bezig zijn met het debuggen van de capture-pijplijn in plaats van het echte probleem op te lossen.”

Het alternatief – een kant-en-klare oplossing – brengt volgens het bedrijf zijn eigen problemen met zich mee. Deze tools worden snel ingezet, maar blijken vaak inflexibel en moeilijk aan te passen voor specifieke gebruikssituaties.

Componist-agent probeert een middenweg te nemen door een platformbenadering aan te bieden die kant-en-klare componenten combineert met uitgebreide aanpassingsmogelijkheden. Het systeem ondersteunt modellen van OpenAI, Anthropic en Google, evenals het Basic Language Model van Contextual AI, dat specifiek is getraind om trouw te blijven aan de vastgelegde inhoud.

Prijzen beginnen bij $ 50 per maand voor selfservice-implementatie, met alleen ondernemingsprijzen voor grotere implementaties.

“De rechtvaardiging voor CFO’s gaat eigenlijk over het verhogen van de productiviteit en hen sneller in productie te krijgen met hun AI-initiatieven”, aldus Kiela. “Elk engineeringteam heeft moeite om het beste technische talent te werven, dus het productiever maken van hun teams is een grote prioriteit in deze branche.”

De weg vooruit: coördinatie door meerdere agenten, acties schrijven en de race om gefedereerde AI-systemen te bouwen

Vooruitkijkend schetste Kiela drie prioriteiten voor het komende jaar: workflowautomatisering met daadwerkelijke schrijfacties op bedrijfssystemen, in plaats van alleen maar lezen en analyseren; betere coördinatie tussen meerdere speciale instanties die samenwerken; en snellere specialisatie door geautomatiseerd leren van productiefeedback.

“Het gecombineerde effect is hier belangrijk”, zei hij. “Elk document dat je ontvangt, elke feedbackloop die je voltooit, de verbeteringen blijven zich opstapelen. Bedrijven die deze infrastructuur nu bouwen, zullen het moeilijk krijgen om bij te blijven.”

De zakelijke AI-markt blijft zeer competitief, met aanbiedingen van grote cloudproviders, gevestigde softwareleveranciers en een aantal startups die allemaal op dezelfde klanten jagen. Of de inzet van Contextuele AI op context boven modellen vruchten zal afwerpen, hangt af van de vraag of het bedrijf de mening van Kiela deelt dat de onderliggende modeloorlog minder belangrijk is dan de infrastructuur eromheen.

Maar er schuilt een zekere ironie in de positionering van het bedrijf. Jarenlang heeft de AI-industrie zich geconcentreerd op het bouwen van grotere en meer geavanceerde modellen, waarbij miljarden dollars in de race zijn geworpen om kunstmatige algemene intelligentie te creëren. Contextuele AI voert een stiller argument aan: voor het meeste werk in de echte wereld zit de magie niet in de modellen. Het gaat erom dat je weet waar je moet kijken.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in