Vaak brengen ‘technische’ geschillen iets veel groters aan het licht. Het recente dispuut tussen het Amerikaanse ministerie van Defensie en Anthropic is zo’n moment: niet omdat het contract 200 miljoen dollar waard is, maar omdat het een nieuw soort ondernemingsrisico blootlegt, een risico dat de meeste CEO’s, CTO’s en CIO’s nog steeds beschouwen als een aanbestedingsdetail.
In een recent artikel: “Het Pentagon wil de regels van AI herschrijven”, richt ik mij op de politieke betekenis van de pogingen van de regering om op te leggen AI bedrijven om hun eigen vangrails los te maken. Voor bedrijfsleiders is het meest praktische van belang: als uw AI-capaciteiten afhankelijk zijn van de vereisten, het beleid en de handhavingsmechanismen van de ene provider, dan bevindt uw strategie zich nu stroomafwaarts van het conflict van een andere partij.
Volgens rapporten is Het Pentagon wil de mogelijkheid hebben om antropische modellen te gebruiken ‘voor alle wettige doeleinden’ terwijl Anthropic aandringt op harde actie, vooral rond massasurveillance en volledig autonome wapens. Wanneer Anthropic wilde niet toegevenhet geschil escaleerde in bedreigingen zwarte lijst en de aanduiding “toeleveringsketenrisico”.met publieke druk op het hoogste politieke niveau. De Associated Press heeft het verzoek om bredere toegang en de mogelijke gevolgen gedetailleerd beschreven, waaronder: de bereidheid van het Pentagon om naleving te behandelen als een niet-onderhandelbaar punt voor deelname aan zijn interne AI-netwerk, GenAI.mil.
Dan komt de tweede helft: OpenAI kwam tussenbeide met zijn eigen Pentagon-overeenkomstpresenteer het als in overeenstemming met sterke veiligheidsprincipes terwijl het debat voortduurt wat de contracttaal feitelijk verhindert, vooral met betrekking tot grootschalig gebruik van openbaar beschikbare gegevens.
Je moet het niet verkopen aan het Pentagon of aan regeringen die de democratie steeds meer op een luchtkasteel laten lijken. Maar u maakt vrijwel zeker gebruik van een leverancier wiens model wordt gevormd door beleid, politiek, contracten en reputatierisico’s. En als je het model ‘as is’ toepast, of een agentsysteem bouwt in combinatie met de tools en aannames van één enkele aanbieder, doe je een strategische gok die je misschien niet had verwacht.
Dit is wat de Pentagon-antropische strijd elk bedrijf zou moeten leren.
Uw AI-leverancier is niet alleen een leverancier. Dit is een regeringsregime.
De afgelopen twee jaar hebben veel bedrijven de inkoop van grote taalmodellen (LLM) behandeld als cloudinkoop: een provider kiezen, over de prijs onderhandelen, voorwaarden ondertekenen, application programming interfaces (API’s) integreren, een pilot uitvoeren.
Maar LLM-aanbieders verkopen geen neutrale infrastructuur. Ze verkopen een model met ingebouwde beperkingen, beleid dat kan veranderen en handhavingsmechanismen die in een oogwenk kunnen worden aangescherpt. Zelfs als het model toegankelijk is via een API, is de praktische realiteit dat uw ‘mogelijkheden’ gedeeltelijk elders worden beheerd – door gebruiksbeleid, ontkenningsgedrag, capaciteitslimieten, logboekregistratie, opslagopties, beveiligingslagen en contractformulering.
Daarom is dit geschil belangrijk. Het standpunt van Anthropic is niet simpelweg een ‘ethisch standpunt’. Dat is productgovernance. Het standpunt van het Pentagon is niet simpelweg ‘kopersdruk’. Ze eisen controle over de overheid.
Leiders van ondernemingen moeten deze vergelijking snel onderkennen: het gedrag van uw ondernemings-AI wordt gedeeltelijk bepaald door de definitie van acceptabel gebruik van de leverancier, en die definitie kan in strijd zijn met uw bedrijfsbehoeften, regelgeving, geografie of risicobereidheid.
In zekere zin besteedt u een deel van uw beslissingsarchitectuur uit.
En wanneer bestuur een strijdtoneel wordt, is het niet langer een technische kwestie. Dit is strategisch.
“Out of the box” AI is ingehuurde intelligentie. Strategie vereist bestaande vaardigheden.
Ik heb eerder geschreven dat de meeste huidige toepassingen van AI in wezen intelligentie zijn die te huur is: krachtig, handig, maar uiteindelijk algemeen. Dat is de kern van mijn betoog in “Dit is het volgende grote ding in zakelijke AI,” en in “Waarom het wereldmodel een platformcapaciteit zal zijn, en niet een supermacht van het bedrijfsleven.” Hoewel iedereen soortgelijke mogelijkheden kan huren bij OpenAI, Anthropic, Google, xAI of anderen, is de onderscheidende factor wat u bovenop het model bouwt: uw workflow, uw feedbackloops, uw integratie met de operationele realiteit.
Het dispuut bij het Pentagon legt een moeilijke waarheid bloot: als je vertrouwt op ‘geleverd’ AI-gedrag, hangt je operationele continuïteit af van de rode lijnen van anderen, en die lijnen kunnen worden aangevochten door klanten, de overheid, de rechtbanken of de interne politiek.
Als u een CIO of CTO bent, is het tijd om LLM-selectie niet langer als een ‘AI-strategie’ te behandelen, maar om deze te gaan behandelen als een vervangbaar onderdeel in een groter systeem.
Omdat de echte strategische vraag niet is: “Welk model kiezen we?” De vraag is: hebben we de technische en organisatorische mogelijkheden om snel van model te wisselen, zonder de bedrijfslogica te herschrijven, het personeel om te scholen of onze agentsystemen opnieuw op te bouwen?
Het agentensysteem vergroot de vergrendeling… en versterkt de explosieradius.
Gelooft u werkelijk dat u, door te zeggen “we zijn een agentsysteem aan het ontwikkelen”, “verfijnder” bent? Eenvoudige gebruiksscenario’s zoals samenvatten, ordenen en zoekuitbreiding zijn relatief draagbaar. Het agentsysteem doet dat niet.
Terwijl je agenten bouwt die tools aanroepen, workflows activeren, toegang krijgen tot interne systemen en ketenbeslissingen nemen, begin je bedrijfslogica te coderen op plaatsen die moeilijk te migreren blijken: commando’s, functieaanroepschema’s, toolselectiepatronen, modelspecifiek veiligheidsgedrag, leverancierspecifieke orkestratieframeworks en zelfs ‘eigenaardigheden’ over hoe bepaalde modellen omgaan met dubbelzinnigheid.
Daarom zou de strijd tussen het Pentagon en Anthropic moeten aanvoelen als een bedrijfsrisicoscenario, en niet als een Washington-drama. Plotselinge beleidswijzigingen, contractgeschillen of reputatieschokken kunnen u ertoe dwingen snel van leverancier te veranderen, en als uw bureaus worden samengevoegd tot één entiteit, zal uw bedrijf niet ‘vooruit gaan’. Het stopte.
Ik maak een gerelateerd punt, zij het vanuit een andere invalshoek, in “Waarom jouw bedrijf (en elk bedrijf) een ‘AI-first’-aanpak nodig heeft.” AI-first AI betekent niet ‘meer AI inzetten’. Dit betekent het bouwen van systemen waarin kunstmatige intelligentie structureel is ingebed, maar ook wordt bestuurd, testbaar, waarneembaar en veerkrachtig in het licht van veranderingen.
Veerkracht is een ontbrekend woord in de meeste AI-plannen voor ondernemingen.
De les is niet ‘ethiek eerst’. Dit is ‘architectuur eerst’.
Je hoeft geen publiek moreel standpunt in te nemen zoals Anthropic (of misschien wel, maar dat is niet het onderwerp van dit artikel). U moet ontwerpen alsof uw leveranciersrelaties vluchtig zullen zijn. . . omdat het zal gebeuren.
Volatiliteit kan uit vele richtingen komen:
- Aanbieders veranderen hun veiligheidshouding.
- Toezichthouders introduceren nieuwe beperkingen.
- Een klant eist een contractverlaging.
- De overheid oefent druk uit op leveranciers.
- Leverancier wijzigt prijs, retentie of beschikbaarheid.
- Een model wordt uitgerekt, beperkt of opnieuw genivelleerd.
- Geopolitieke gebeurtenissen veranderen de betekenis van ‘aanvaardbaar gebruik’.
De organisaties die het beste door dit tijdperk heen zullen komen, zullen de organisaties zijn die LLM’s als uitwisselbare machines beschouwen en mogelijkheden bouwen die modelonafhankelijk zijn.
Dat betekent investeren in lagen bovenop uw eigen modellen: evaluatie, routing, beleid, waarneembaarheid en integratie met uw operationele waarheid.
Als je een mentaal raamwerk nodig hebt, denk er dan over na wat NIST doet met het AI Risk Management Framework: een gestructureerde manier om AI-risico’s in verschillende contexten en gebruiksscenario’s in kaart te brengen, te meten en te beheren, in plaats van aan te nemen dat de technologie inherent veilig is omdat de leverancier dat zegt.
Het Pentagon zelf heeft (ironisch gezien dit dispuut) een formele taal principes en implementatie van verantwoorde AIlegt de nadruk op governance, testen en levenscyclusdiscipline.
Bedrijven moeten deze documenten niet lezen als ‘overheidsethiek’, maar als een herinnering dat het controlegebied net zo belangrijk is als het model.
Bouw AI-mogelijkheden die uw bedrijf weerspiegelen, en niet uw provider.
Het uiteindelijke doel is niet zozeer ‘modelonafhankelijkheid’ als wel een abstract principe. Het einddoel is vertrouwen op strategie: een AI-systeem dat sterk wordt beïnvloed door uw toeleveringsketen, uw bedrijfsmodel, uw risicohouding, uw klantverplichtingen en uw concurrentiecontext, hoe complex deze ook is.
Dit is het deel dat de meeste bedrijven nog steeds vermijden, omdat het moeilijker is dan het kopen van een model.
Dit vereist het ontwikkelen van institutionele competenties: het vermogen om modellen te evalueren, modellen uit te wisselen, gedrag aan te passen via je eigen bestuurslagen, om output te instrumenteren, om de toegang tot tools te beheren, en om agenten te behandelen als productiesystemen en niet als demo’s.
In de “Wat zijn de twee categorieën van AI-gebruik en waarom zijn ze belangrijk?“Ik probeerde de kloof te illustreren tussen organisaties die AI gebruiken en organisaties die bouwen met AI. Het Pentagon-Antropische conflict is een perfecte illustratie van waarom deze kloof bestaat. Als je alleen maar ‘gebruikt’, erft je de beperkingen van iemand anders. Als je ‘bouwt’, kun je je aanpassen.
Bedrijven die AI blijven behandelen als een kostenbesparende plug-in zullen vrijwel zeker te weinig investeren in de architectuur die de overstap mogelijk maakt. Het efficiëntieverhaal voelt veilig, maar laat je vaak gevangen zitten in de meest oppervlakkige versie van technologie.
Het Pentagon wil niet dat ethiek een ‘hindernis’ wordt. Anthropic wilde de controle niet uit handen geven. OpenAI onderhandelde over een andere reeks voorwaarden. De driehoek is geen verhaal dat maar één keer is gebeurd. Dit is een blik op hoe het AI-aanbod zal worden betwist, gepolitiseerd en strategische gevolgen zal hebben.
Het is niet de taak van uw bedrijf om de “juiste” aanbieder te kiezen.
Het is uw taak ervoor te zorgen dat, wanneer het onvermijdelijke conflict zich voordoet, uw bedrijf niet verstrikt raakt in de argumenten van anderen.


