Home Nieuws Autonomie van agenten zonder vangrails is een SRE-nachtmerrie

Autonomie van agenten zonder vangrails is een SRE-nachtmerrie

12
0
Autonomie van agenten zonder vangrails is een SRE-nachtmerrie

João Freitas is GM en VP van AI en automatiseringstechniek bij Taken van de pager

Nu het gebruik van AI in grote organisaties blijft groeien, zijn leiders steeds meer op zoek naar de volgende ontwikkeling die een enorme ROI zal opleveren. De nieuwste golf van deze aanhoudende trend is de adoptie van AI-agenten. Maar net als bij elke nieuwe technologie moeten organisaties ervoor zorgen dat ze AI-agenten op een verantwoorde manier adopteren, waardoor ze snelheid en veiligheid kunnen faciliteren.

Meer dan de helft Veel organisaties hebben al tot op zekere hoogte AI-agents geïmplementeerd, en de verwachting is dat nog veel meer organisaties in de komende twee jaar hetzelfde zullen doen. Maar veel early adopters heroverwegen nu hun aanpak. Vier op de tien technologieleiders hebben er spijt van dat ze geen bedrijf hebben opgericht sterkere bestuursbasis Dit laat vanaf het begin zien dat ze AI snel adopteren, maar dat er nog steeds ruimte is om het beleid, de regels en de beste praktijken te verbeteren die zijn ontworpen om de verantwoorde, ethische en juridische ontwikkeling en het gebruik van AI te garanderen.

Naarmate de adoptie van AI versneltOrganisaties moeten de juiste balans vinden tussen blootstellingsrisico’s en het implementeren van vangrails om een ​​veilig gebruik van AI te garanderen.

Waar creëren AI-agenten potentiële risico’s?

Er zijn drie belangrijke overwegingen voor een veiligere implementatie van AI.

De eerste is AI-schaduwwanneer werknemers ongeautoriseerde AI-tools gebruiken zonder schriftelijke toestemming, waardoor goedgekeurde tools en processen worden omzeild. IT moet de noodzakelijke processen voor experimenten en innovatie creëren om efficiëntere manieren te introduceren om met AI te werken. Hoewel schaduw-AI al zo lang bestaat als AI-tools zelf, maakt de autonomie van AI-agenten het gemakkelijker voor ongeautoriseerde tools om buiten het bereik van IT te opereren, waardoor nieuwe veiligheidsrisico’s ontstaan.

Ten tweede moeten organisaties de hiaten in AI-eigendom en aansprakelijkheid dichten om zich voor te bereiden op incidenten of procesfouten. De kracht van een AI-agent ligt in zijn autonomie. Als een agent echter op een onverwachte manier handelt, moet het team kunnen bepalen wie verantwoordelijk is voor het oplossen van eventuele problemen.

Een derde risico doet zich voor wanneer acties van AI-agenten niet kunnen worden verklaard. AI-agenten zijn doelgerichtmaar hoe ze hun doelen bereiken blijft onduidelijk. AI-agenten moeten verklaarbare logica hebben die ten grondslag ligt aan hun acties, zodat ingenieurs acties kunnen volgen en, indien nodig, ongedaan kunnen maken die problemen in bestaande systemen kunnen veroorzaken.

Hoewel deze risico’s de implementatie niet zullen vertragen, zullen ze organisaties helpen hun veiligheid beter te waarborgen.

Drie richtlijnen voor een verantwoorde adoptie van AI-agenten

Zodra organisaties de risico’s identificeren die AI-agenten kunnen opleveren, moeten ze richtlijnen en beperkingen implementeren om veilig gebruik te garanderen. Door deze drie stappen te volgen, kunnen organisaties deze risico’s minimaliseren.

1: Maak menselijk toezicht de standaard

AI-agentschappen blijven zich snel ontwikkelen. We hebben echter nog steeds menselijk toezicht nodig wanneer AI-agenten de capaciteit krijgen om te handelen, beslissingen te nemen en doelen te bereiken die van invloed kunnen zijn op het hoofdsysteem. Mensen zouden dit standaard moeten weten, vooral voor bedrijfskritische gebruiksscenario’s en systemen. Teams die AI gebruiken, moeten begrijpen welke mogelijke acties ze moeten ondernemen en waar ze moeten ingrijpen. Begin conservatief en verhoog na verloop van tijd het niveau van keuzevrijheid dat aan de AI-agent wordt geboden.

Tegelijkertijd moeten operationele teams, ingenieurs en beveiligingsprofessionals begrijpen welke rol zij spelen bij het toezicht op de workflows van AI-agenten. Aan elke agent moet een specifieke menselijke eigenaar worden toegewezen voor duidelijk toezicht en aansprakelijkheid. Organisaties moeten mensen ook toestaan ​​het gedrag van AI-agenten te markeren of te negeren wanneer een actie een negatieve impact heeft.

Bij het overwegen van taken voor AI-agenten moeten organisaties begrijpen dat, hoewel traditionele automatisering repetitieve, op regels gebaseerde processen met gestructureerde gegevensinvoer kan afhandelen, AI-agenten veel complexere taken kunnen uitvoeren en zich op een meer autonome manier kunnen aanpassen aan nieuwe informatie. Dit maakt het een aantrekkelijke oplossing voor allerlei taken. Maar wanneer een AI-agent wordt ingezet, moeten organisaties bepalen welke acties de agent kan ondernemen, vooral in de vroege stadia van het project. Daarom moeten teams die met AI-agenten werken goedkeuringstrajecten hebben voor acties met een hoge impact om ervoor te zorgen dat de reikwijdte van de agent niet verder reikt dan de beoogde gebruiksscenario’s, waardoor de risico’s voor het bredere systeem worden geminimaliseerd.

2: Veilig bakken

De introductie van nieuwe tools mag het systeem niet blootstellen aan nieuwe veiligheidsrisico’s.

Organisaties moeten agentplatforms overwegen die voldoen aan hoge beveiligingsnormen en gevalideerd zijn door certificeringen op bedrijfsniveau, zoals SOC2, FedRAMP of gelijkwaardig. Bovendien mogen AI-agenten geen vrije hand krijgen over organisatiesystemen. De machtigingen en beveiligingsbereiken van een AI-agent moeten op zijn minst in lijn zijn met die van de eigenaar, en eventuele tools die aan de agent worden toegevoegd, mogen geen uitbreidingen van machtigingen toestaan. Het beperken van de toegang van AI-agenten tot het systeem op basis van hun rol zal er ook voor zorgen dat de implementatie soepel verloopt. Door een volledige registratie bij te houden van elke actie die door een AI-agent wordt ondernomen, kunnen ingenieurs ook begrijpen wat er is gebeurd in het geval van een incident en het probleem kunnen traceren.

3: Maak de output verklaarbaar

Het gebruik van AI in een organisatie mag geen black box zijn. De redenering achter elke actie moet worden geïllustreerd, zodat elke ingenieur die er toegang toe probeert te krijgen, de context kan begrijpen die de agent heeft gebruikt voor de besluitvorming en toegang kan krijgen tot de sporen die tot de actie leiden.

IDe invoer en uitvoer voor elke actie moeten worden geregistreerd en toegankelijk zijn. Dit zal organisaties helpen een overzicht te krijgen van de logica die ten grondslag ligt aan de acties van de AI-agent, wat aanzienlijke waarde oplevert als er iets misgaat.

Beveiliging benadrukt het succes van AI-agenten

AI-agents bieden organisaties een geweldige kans om bestaande processen te versnellen en te verbeteren. Als ze echter geen prioriteit geven aan veiligheid en sterk bestuur, kunnen ze met nieuwe risico’s te maken krijgen.

Nu AI-agenten steeds gebruikelijker worden, moeten organisaties ervoor zorgen dat ze over systemen beschikken om hun prestaties te meten en om actie te kunnen ondernemen als ze problemen veroorzaken.

Lees meer van ons gastauteur. Of overweeg om uw eigen bericht in te dienen! Bekijk ons richtlijnen hier.

Welkom bij de VentureBeat-community!

In ons gastenprogramma delen technische experts inzichten en geven ze onpartijdige, diepgaande uitleg over AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van ondernemingen vormgeven.

Lees meer uit ons gastenpostprogramma — en bekijk het eens richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in