Home Nieuws Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82...

Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82 tegen 1 in aantal

9
0
Legacy IAM is gebouwd voor mensen – en AI-agenten zijn nu 82 tegen 1 in aantal

Vroege Active Directory, LDAP en PAM werden gebouwd voor mensen. AI-agenten en -machines vormen de uitzondering. Tegenwoordig zijn er 82 tegen 1 meer mensen dan mensen, en het mens-eerst-identiteitsmodel stort met machinesnelheid ineen.

AI-agenten vormen de snelst groeiende en minst gereguleerde klasse van machine-identiteiten – en ze authenticeren niet alleen, ze handelen ook. ServiceNow geeft alleen al in 2025 naar schatting 11,6 miljard dollar uit aan beveiligingsaankopen – een signaal dat identiteiten, en niet modellen, het controle-instrument zijn voor de AI-risico’s van ondernemingen.

CyberArk-onderzoek 2025 Dit bevestigt wat beveiligingsteams en AI-makers al lang vermoeden: het aantal machine-identiteiten is nu veel groter dan het aantal mensen. Microsoft Copilot Studio-gebruikers creëerden in één kwartaal meer dan 1 miljoen AI-agents, een stijging van 130% ten opzichte van de voorgaande periode. Schattingen van Gartner dat in 2028 25% van de bedrijfsinbreuken zal worden veroorzaakt door misbruik van AI-agenten.

Waarom oudere architecturen falen op machineschaal

Bouwers maken uit nalatigheid geen schaduwagenten of serviceaccounts aan met overmatige machtigingen. Ze doen dit omdat IAM in de cloud traag is, beveiligingsbeoordelingen niet duidelijk aansluiten op de workflows van agenten en productiedruk snelheid boven precisie beloont. Statische referenties worden de weg van de minste weerstand – totdat ze een inbreukvector worden.

Gartner-analisten leggen de kern van het probleem uit in een rapport gepubliceerd in mei: “Traditionele IAM-benaderingen, ontworpen voor menselijke gebruikers, zijn niet in staat om te voldoen aan de unieke behoeften van machines, zoals apparaten en workloads.”

Hun onderzoek identificeerde de redenen voor het mislukken van de retrofitting: “Het versterken van de menselijke IAM-aanpak om te passen bij machine-IAM-gebruiksscenario’s leidt tot gefragmenteerd en ineffectief machine-identiteitsbeheer, in strijd met wettelijke mandaten en stelt organisaties bloot aan onnodige risico’s.”

De hiaten in het bestuur zijn schrijnend. CyberArk Identiteitsbeveiligingslandschap 2025 Uit een onderzoek onder 2.600 besluitvormers op het gebied van de beveiliging blijkt dat er sprake is van een gevaarlijke kloof: ook al zijn er nu 82 tegen 1 meer machine-identiteiten dan mensen, toch definieert 88% van de organisaties menselijke identiteiten nog steeds alleen als ‘bevoorrechte gebruikers’. Het resultaat is dat machine-identiteiten feitelijk een hoger niveau van gevoelige toegang hebben dan mensen.

Die 42% vertegenwoordigt miljoenen API-sleutels, serviceaccounts en geautomatiseerde processen met toegang tot belangrijke edelstenen, allemaal onderworpen aan beleid dat is ontworpen voor inkomende en uitgaande werknemers.

Het gebrek aan zichtbaarheid verergert het probleem. A Gartner-enquête van de 335 IAM-leiders ontdekte dat IAM-teams slechts verantwoordelijk zijn voor 44% van de machine-identiteiten van een organisatie, wat betekent dat de meerderheid buiten de zichtbaarheid van de beveiliging opereert. Zonder een samenhangende machine-IAM-strategie, waarschuwt Gartner, “lopen organisaties het risico de veiligheid en integriteit van hun IT-infrastructuur in gevaar te brengen.”

Dat Gartner Leidersgids legt uit waarom verouderde serviceaccounts een systeemrisico vormen: ze blijven bestaan ​​nadat de werklast die ze ondersteunen verdwenen is, waardoor verouderde inloggegevens geen duidelijke eigenaar of levenscyclus meer hebben.

Bij meerdere bedrijfsinbreuken die in 2024 zijn onderzocht, hebben aanvallers geen modellen of eindpunten gecompromitteerd. Ze hergebruiken langlevende API-sleutels die horen bij verlaten automatiseringsworkflows; sleutels waarvan niemand beseft dat ze nog steeds actief zijn omdat de agent die ze heeft gemaakt niet meer bestaat.

Elia ZaitsevCrowdStrike CTO legt uit waarom aanvallers overschakelen van eindpunten naar identiteiten in a recent VentureBeat-interview: “De cloud-, remote- en identiteitsbeheertools en legitieme inloggegevens zijn waar de vijand naartoe beweegt, omdat het te moeilijk is om zonder beperkingen op het eindpunt te opereren. Waarom proberen een geavanceerd platform als CrowdStrike op het eindpunt te omzeilen en te gebruiken als je kunt inloggen als een admin-gebruiker?”

Waarom AI-agenten identiteitsaannames doorbreken

De opkomst van AI-agents die hun eigen inloggegevens nodig hebben, introduceert categorieën van machine-identiteit waar oudere systemen nooit op waren voorbereid of waarvoor ze nooit waren ontworpen. Gartner-onderzoeker noemt AI-agenten specifiek als een kritische use case: “AI-agenten hebben inloggegevens nodig om met andere systemen te kunnen communiceren. In sommige gevallen gebruiken ze gedelegeerde menselijke inloggegevens, terwijl ze in andere gevallen met hun eigen inloggegevens werken. Deze inloggegevens moeten zorgvuldig worden afgestemd om te voldoen aan het principe van de minste privileges.”

De onderzoekers noemden ook het Model Context Protocol (MCP) als voorbeeld van deze uitdaging, een soortgelijk protocol veiligheidsonderzoekers hebben dit opgemerkt vanwege een gebrek aan ingebouwde authenticatie. MCP’s verliezen niet alleen de authenticatie; ze doorbreken traditionele identiteitsbarrières doordat agenten gegevens en tools kunnen doorkruisen zonder een stabiel, controleerbaar identiteitsoppervlak.

Bestuursproblemen worden groter wanneer organisaties meerdere GenAI-tools tegelijkertijd inzetten. Beveiligingsteams hebben inzicht nodig in de mogelijkheden van AI-integratieacties, inclusief de mogelijkheid om taken uit te voeren, en niet alleen maar tekst te genereren, en of deze mogelijkheden op de juiste manier worden bestreken.

Platformen die identiteit, eindpunt en cloudtelemetrie verenigen, komen nu naar voren als de enige haalbare manier om agentmisbruik in realtime te detecteren. Gefragmenteerde puntgereedschappen kunnen de zijdelingse beweging van de machinesnelheid niet bijhouden.

Machine-tot-machine-interacties vinden al plaats op schaalniveaus en snelheden waarvoor modellen voor menselijk bestuur nooit zijn ontworpen.

Wees voorop bij dynamische verschuivingen in de service-identiteit

Onderzoek van Gartner wijst op dynamische service-identiteiten als de weg vooruit. Ze worden gedefinieerd als referenties die tijdelijk zijn, een strikte reikwijdte hebben en worden aangestuurd door beleid dat het aanvalsoppervlak drastisch verkleint. Daarom beveelt Gartner beveiligingsleiders aan om “naar een dynamisch service-identiteitsmodel te gaan, in plaats van standaard het oude service-accountmodel te gebruiken. Voor dynamische service-identiteiten is het niet nodig om afzonderlijke accounts aan te maken, waardoor de beheeroverhead en het aanvalsoppervlak worden verminderd.”

Het uiteindelijke doel is het bereiken van tijdige toegang en zero privilege. Platformen die identiteits-, eindpunt- en cloudtelemetrie verenigen, worden steeds meer de enige haalbare manier om agentmisbruik in de identiteitsaanvalketen te detecteren en in te dammen.

Praktische stappen die beveiligings- en AI-ontwikkelaars vandaag kunnen nemen

Organisaties die de identiteit van agenten op de juiste manier krijgen, beschouwen het als een samenwerkingskwestie tussen beveiligingsteams en AI-makers. Op basis van de Gartner Leader’s Guide, de richtlijnen van de OpenID Foundation en best practices van leveranciers komen deze prioriteiten naar voren voor bedrijven die AI-agents inzetten.

  • Voer eerst een uitgebreide detectie en audit van elk account en inloggegevens uit. Het is een goed idee om eerst een basislijn op te zetten om te zien hoeveel accounts en referenties er op alle computers in de IT worden gebruikt. CISO’s en beveiligingsleiders vertelden VentureBeat dat dit vaak zes tot tien keer meer identiteiten oplevert dan beveiligingsteams vóór de audit wisten. Een hotelketen ontdekte dat ze slechts een tiende van de identiteit van hun machines achterhaalden voordat ze werden gecontroleerd.

  • Bouw en beheer de agentvoorraad strak vóór de productie. Door hier bovenop te blijven, zorgen ervoor dat AI-makers weten wat ze implementeren en dat beveiligingsteams weten wat ze moeten volgen. Wanneer er te veel hiaten zijn tussen deze functies, is het gemakkelijker voor schaduwagenten om zich te vormen, waardoor het bestuur wordt omzeild. Het gedeelde register moet het eigendom, de machtigingen, de gegevenstoegang en de API-verbindingen voor elke agentidentiteit bijhouden voordat de agent de productieomgeving bereikt.

  • Profiteer optimaal van dynamische service-identiteiten en beheers deze. Overgang van statische serviceaccounts naar cloud-native alternatieven zoals AWS IAM-rollen, door Azure beheerde identiteiten of Kubernetes-serviceaccounts. Deze identiteiten zijn tijdelijk en moeten door beleid worden beperkt, beheerd en aangemoedigd. Het doel is om uit te blinken in compliance en tegelijkertijd AI-makers de identiteit te bieden die ze nodig hebben om applicaties te maken.

  • Dwing just-in-time-referenties af voor statische geheimen. Het integreren van tijdige credential provisioning, automatische geheimroulatie en standaardinstellingen met de minste bevoegdheden in CI/CD-pijplijnen en agentframeworks is van cruciaal belang. Dit zijn allemaal basiselementen van zero trust die de kern zouden moeten vormen van de ontwikkelingspijplijn. Volg het advies van doorgewinterde beveiligingsleiders die AI-makers verdedigen, die VentureBeat regelmatig hebben gevraagd om het advies te delen om perimeterbeveiliging nooit te vertrouwen met AI-ontwikkelaarsworkflows of CI/CD-processen. Realiseer een nulvertrouwens- en identiteitsbeveiliging als het gaat om het beschermen van de workflows van AI-makers.

  • Bouw controleerbare delegatieketens. Wanneer agenten subagenten voortbrengen of externe API’s aanroepen, wordt de autorisatieketen moeilijk te traceren. Zorg ervoor dat mensen verantwoordelijk zijn voor alle diensten, inclusief AI-agenten. Bedrijven hebben gedragsbasislijnen en realtime detectie van afwijkingen nodig om verantwoording af te leggen.

  • Implementeer continue monitoring. Houd, in overeenstemming met de zero trust-principes, voortdurend toezicht op elk gebruik van machinereferenties met als doel uit te blinken in waarneembaarheid. Dit omvat auditing omdat het helpt bij het detecteren van afwijkende activiteiten, zoals ongeautoriseerde escalatie van bevoegdheden en zijdelingse verplaatsing.

  • Evaluatie van houdingsmanagement. Beoordeel potentiële exploitpaden, het niveau van mogelijke schade (straal van de explosie) en eventuele toegang van schaduwbeheerders. Dit omvat het verwijderen van onnodige of verouderde toegang en het identificeren van configuratiefouten die door aanvallers kunnen worden misbruikt.

  • Begin met het implementeren van het levenscyclusbeheer van agenten. Elke agent heeft menselijk toezicht nodig, hetzij als onderdeel van een groep agenten, hetzij in de context van een op agenten gebaseerde workflow. Wanneer AI-makers naar een nieuw project verhuizen, moeten hun agenten dezelfde exit-workflows activeren als vertrekkende werknemers. Verweesde agenten met speciale privileges kunnen een inbreukvector zijn.

  • Geef prioriteit aan uniforme platforms boven puntoplossingen. Gefragmenteerde tools zorgen voor gefragmenteerde zichtbaarheid. Een platform dat identiteits-, eindpunt- en cloudbeveiliging verenigt, biedt selfservice-inzicht voor AI-makers en biedt tegelijkertijd domeinoverschrijdende detectie aan beveiligingsteams.

De verwachting is dat de kloof in 2026 groter zal worden

De kloof tussen wat AI-makers implementeren en wat beveiligingsteams kunnen beheren, wordt groter. Helaas leidt elke grote technologietransitie ook tot de volgende generatie inbreuken op de beveiliging, die vaak tot unieke afrekeningen in verschillende sectoren leiden. Net zoals misconfiguraties in de hybride cloud, schaduw-AI en wildgroei van API’s veiligheidsleiders en de AI-makers die zij ondersteunen blijven uitdagen, zal er in 2026 een steeds groter wordende kloof zien tussen wat kan worden overwonnen op het gebied van machine-identiteitsaanvallen en wat moet worden verbeterd om hardnekkige tegenstanders tegen te houden.

De verhouding van 82 op 1 is niet statisch. Het wordt sneller. Organisaties die blijven vertrouwen op IAM-architecturen waarbij de mens centraal staat, gaan niet alleen technische schulden aan; ze bouwen aan een beveiligingsmodel dat steeds zwakker wordt naarmate nieuwe agenten worden ingezet.

Agentic AI schendt de beveiliging niet omdat het intelligent is; het schendt de beveiliging omdat het identiteiten sneller vermenigvuldigt dan bestuur dat kan. Het omzetten van de meest flagrante beveiligingszwakte van veel organisaties in een kracht begint met het besef dat traditionele, perimetergebaseerde identiteitsbeveiliging geen partij is voor de intensiteit, snelheid en schaal van machine-to-machine-aanvallen die het nieuwe normaal zijn en zich in 2026 zullen verspreiden.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in