Welkom bij AI Vertaald, Snel bedrijfEen wekelijkse nieuwsbrief met het belangrijkste nieuws in de wereld van AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen Hier.
De bekende spanning rondom Sam Altman
OpenAI-CEO Sam Altman sprak zijn steun uit voor Anthropic in zijn geschil met het Pentagon over het gebruik van AI om zich te richten op autonome wapens en binnenlandse massale surveillance. Hij deed het tijdens bedrijfsbijeenkomsten en op CNBC Twitter-box kwam afgelopen vrijdag naar voren, de dag dat Anthropic effectief op de zwarte lijst werd gezet door de regering-Trump.
Twee dagen eerder, op woensdag, werd Altman echter gemeld zijn begonnen met praten aan het Pentagon over een contract dat OpenAI in staat zou stellen Anthropic effectief te vervangen als de enige leverancier van AI-modellen voor geheime informatie. De dag erna miste Anthropic de “deadline” om akkoord te gaan met de voorwaarden van het Pentagon, Altman aangekondigd op X-datum dat zijn bedrijf een deal had gesloten met het Pentagon om AI te leveren voor hetzelfde geheime werk. Hij voegde eraan toe dat het contract benadrukt dat het Pentagon zijn AI niet zal gebruiken voor autonome wapens of binnenlandse massabewaking.
Altman legt in X uit dat het contract garanties bevat dat OpenAI-modellen niet zullen worden gebruikt voor autonome wapens of massasurveillance. Het lijkt vreemd dat de advocaten van OpenAI dit in zo’n krap tijdsbestek konden doen, terwijl de advocaten van Anthropic dit niet konden doen tijdens de weken dat het bedrijf met het Pentagon onderhandelde. Altman leek het te proberen uit te leggen in een tweet van 1 maart: “Ik denk dat Anthropic waarschijnlijk meer operationele controle wil dan wij”, schreef hij. (CEO van Anthropic, Dario Amodei, van zijn kant, zei tijdens een bedrijfsbijeenkomst dat de onderhandelingen van OpenAI met het Pentagon neerkwamen op een ‘veiligheidstheater’. volgens Informatie.)
In de interne memo van Altman tweeten deze week gaf hij toe dat het een slechte zet was om overhaast een deal met het Pentagon af te ronden op dezelfde dag dat Anthropic zijn deal verloor. “De kwestie is complex en vereist duidelijke communicatie”, schreef hij. “We proberen echt de spanningen weg te nemen en een slechtere uitkomst te voorkomen, maar ik denk dat dit er gewoon opportunistisch en roekeloos uitziet.”
Dit alles wijst er sterk op dat OpenAI eenvoudigweg alternatieve contracttaal accepteerde die hetzelfde was of vergelijkbaar was met de taal die het Pentagon op het elfde uur aan Anthropic aanbood – taal die op een volledig niet-bindende manier beloofde AI niet te gebruiken voor autonome wapens of massale surveillance.
Op maandagavond, Altman zei tegen X dat het Pentagon ermee heeft ingestemd een meer expliciete verklaring toe te voegen, geworteld in de Amerikaanse wet, waarin staat dat OpenAI-modellen niet zullen worden gebruikt voor binnenlands toezicht. Maar zou Anthropic geen bezwaar hebben tegen de wens van het Pentagon om AI-modellen te gebruiken voor binnenlandse surveillanceprogramma’s die al zijn toegestaan onder de bestaande wetgeving?
Mensen die met Altman hebben gewerkt, zeggen dat CEO’s vaak het ene zeggen en het andere doen. Bedenk dat de raad van bestuur van OpenAI Altman ontsloeg omdat hij niet helemaal eerlijk was over de strategische beslissingen die hij voor het bedrijf nam.
In zijn nieuwste Platformer-nieuwsbrief herinnert Casey Newton zich een citaat uit het boek van Wall Street Journal-verslaggever Keach Hagey over Altman, The Optimist. “Het duurde jaren voordat (Ilya) Sutskever het gedragspatroon van Altman doorhad – hoe de CEO van OpenAI hem het ene ding vertelde, dan het andere zei en deed alsof de discrepantie toeval was. ‘O, ik heb me waarschijnlijk verkeerd uitgesproken’, zei Altman. Sutskever was van mening dat Altman oneerlijk was en chaos veroorzaakte, wat een probleem zou zijn voor elke CEO, vooral voor een CEO die verantwoordelijk is voor zo’n potentieel beschavingsveranderende technologie.”
In de nieuwste versie Platformer bulletinCasey Newton citeert uit het boek van verslaggever Keach Hagey De Optimistwaarin wordt verteld hoe Ilya Sutskever, medeoprichter van OpenAI en later hoofdwetenschapper, zich uiteindelijk ongemakkelijk voelde bij het leiderschap van Altman. Zoals Hagey schrijft, kostte het Sutskever jaren om erachter te komen wat hem dwars zat: gesprekken met Altman leken later verdraaid of tegenstrijdig, om vervolgens te worden afgewezen met verklaringen als: “Oh, ik heb me waarschijnlijk verkeerd uitgesproken.” Sutskever beschouwde het gedrag uiteindelijk als oneerlijk en destabiliserend – wat volgens zijn boek ‘problematisch zou zijn voor elke CEO, vooral voor een CEO die verantwoordelijk is voor een potentieel veranderende technologie.’
AI-contractgevecht dat binnen het Pentagon moet blijven
Antropisch op gespannen voet met het Pentagon het had nooit openbaar mogen worden. Omdat deze kwestie betrekking heeft op defensie en geheime informatie, moet deze persoonlijk worden behandeld in het Pentagon. Maar om de een of andere reden besloten minister van Defensie Pete Hegseth en president Donald Trump er een kwestie van cultuuroorlog van te maken. Hun beslissing om Anthropic tot een ‘toeleveringsketenrisico’ te bestempelen was willekeurig en grillig, en slaat nog steeds nergens op. Maar de kern van dit geschil is een legitiem meningsverschil, en de manier waarop dit wordt opgelost kan op de langere termijn consequenties hebben voor het gebruik van AI binnen de overheid, inclusief defensie.
In juli 2025 ondertekende Anthropic een Contract ter waarde van 200 miljoen dollar met het Pentagon om AI te ontwikkelen voor de nationale veiligheid, waardoor het het eerste AI-bedrijf is dat modellen op geheime netwerken inzet (via een partnerschap met Palantir). Er stond een soort gifpil in dat contract. Dit heeft nu de relatie van Anthropic met het Pentagon vergiftigd, en je zou kunnen zeggen dat beide partijen de schuld delen.
Het geschil begon eerder dit jaar toen het Pentagon aan Anthropic vertelde dat het ‘zijn contract aan het herzien was’. Ambtenaren van het ministerie van Defensie zeiden dat Anthropic, om de overeenkomst na de oorspronkelijke looptijd te verlengen, alle beperkingen zou moeten opheffen die verhinderen dat zijn AI-modellen worden gebruikt bij operaties die niet bij wet verboden zijn. Het oorspronkelijke contract, dat het Pentagon in 2025 ondertekende, verbiedt niet uitdrukkelijk het gebruik van Anthropic-modellen om autonome wapens aan te vallen of massasurveillance uit te voeren – de twee belangrijkste ‘rode lijn’-gebruiksscenario’s van Anthropic. Maar de Servicevoorwaarden van Anthropic dwingen dit af, en in het contract staat dat defensie-instanties AI-modellen kunnen gebruiken voor alles wat niet verboden is in de Servicevoorwaarden.
Hadden de advocaten van het Ministerie van Defensie de voorwaarden niet zorgvuldig gelezen voordat ze het contract tekenden? En waarom heeft Anthropic, gezien de gevoelige aard van het werk dat zijn modellen in het Pentagon doen, de taal over massasurveillance en autonome wapens niet rechtstreeks in het contract zelf opgenomen? Nu, zeven maanden later, zegt het Pentagon dat het de overeenkomst zal beëindigen. Er had veel tijd, geld en moeite kunnen worden bespaard als beide partijen hun geschillen in juli hadden afgehandeld.
Velen in de defensie-industrie zien het kernconflict als de vraag wie het beleid mag bepalen over hoe strijdkrachten AI gebruiken. Dergelijk beleid is al door het Congres bepaald, zo luidt het argument, en als er nieuwe regelgeving nodig is, zal het Congres actie ondernemen. Defensieagentschappen mogen in deze visie niet gebonden zijn aan de grenzen die particuliere AI-bedrijven stellen.
Vóór de resolutiedeadline van 27 februari stuurden de voorzitters van de Strijdkrachtencommissie van de Senaat, Roger Wicker (R-Miss.) en Jack Reed (DRI), een brief naar Hegseth en Amodei waarin ze stelden dat contractgeschillen niet de geschikte plaats zijn om het nationale AI-beleid vast te stellen, en er bij de twee partijen op aandringen om door te gaan met onderhandelen.
Anthropic stelt dat sommige AI-mogelijkheden de wet al overschrijden. AI-modellen kunnen bijvoorbeeld surveillancegegevens op een ongekende schaal analyseren, waardoor de privacy en het recht op vergadering mogelijk worden bedreigd op manieren waar de bestaande wetten niet volledig op anticiperen, aldus Amodei. Door regels op te nemen die dergelijk gebruik verbieden in de Servicevoorwaarden, zegt Anthropic dat het zijn eigen bescherming biedt.
Anthropic maakt bezwaar tegen het gebruik van zijn modellen als het brein van autonome wapens, zoals drones nu actief in de conflicten in Oekraïne en de Gazastrook – zijn eerder technisch dan juridisch of moreel. Het bedrijf is van mening dat AI nog niet betrouwbaar genoeg is om deze functies zonder menselijk toezicht te vervullen, waardoor het risico groter wordt dat de verkeerde persoon wordt aangevallen en mogelijk wordt vermoord.
In meer beschaafde tijden zou het geschil tussen antropisten en het ministerie van Defensie waarschijnlijk achter de schermen hebben plaatsgevonden. Ook technische oplossingen lijken denkbaar. Hoewel Anthropic het eerste AI-bedrijf is dat modellen op een geheim netwerk inzet, zal het niet het enige zijn. Het Pentagon was altijd van plan OpenAI, xAI en Google goed te keuren voor geheim werk. We kunnen ons een systeem voorstellen dat verschillende modellen gebruikt voor verschillende taken, afhankelijk van zijn sterke punten en zijn ‘rode lijnen’.
In plaats daarvan werd Anthropic – waarvan de AI naar verluidt door velen in defensie- en inlichtingenkringen zeer gerespecteerd werd – plotseling gebrandmerkt als een ‘wakker’ bedrijf geleid door ‘linkse fanatici’, zoals de president het op Truth Social stelde, en werd het niet alleen door het Pentagon, maar ook door de leveranciers van het agentschap niet meer gebruikt.
Meer AI-dekking van Snel bedrijf:
- Trillingsgecodeerde AI-oorlogsdashboards overspoelen sociale media
- De startup die de wet op het boekenverbod in Texas tot een groot bedrijf heeft gemaakt
- Hoe we de circulaire dealmaking kunnen begrijpen die de AI-boom aanwakkert
- Wat deze Republikeinse voorverkiezingen in Texas onthullen over de politiek van AI-datacenters
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Register Voor Snel bedrijf Premie.



