Deze week heeft een dramatische escalatie de manier waarop het werkt veranderd kunstmatige intelligentie geïntegreerd in de nationale veiligheid – en wie deze controleert – werd Anthropic officieel op de zwarte lijst gezet door de regering-Trump, terwijl OpenAI tussenbeide kwam om nieuwe defensiecontracten binnen te halen.
Vrijdagavond bestempelde het Pentagon Anthropic als een risico voor de toeleveringsketen en verbood het gebruik van zijn technologie door defensie-aannemers na een overgangsperiode. Dit kwam slechts enkele uren nadat president Donald Trump federale instanties had opgedragen te stoppen met het gebruik van het medicijn Antropische AI-tooldaarbij verwijzend naar de weigering van het bedrijf om het voorgestelde militaire gebruik van het Claude-model goed te keuren.
Antropis-CEO Dario Amodei zei dat hij niet “met een goed geweten” kon toestaan dat de technologie werd gebruikt voor grootschalige binnenlandse surveillance of om onafhankelijk autonome wapens aan te sturen – twee gebruiksscenario’s die volgens hem de ethische grenzen van het bedrijf schonden.
Te midden van de impasse kondigde de rivaal van Anthropic, OpenAI, aan dat het een overeenkomst had bereikt Ministerie van Defensie om zijn eigen AI-modellen in geheime omgevingen in te zetten.
Dit geschil is uitgegroeid tot een bredere confrontatie tussen het Pentagon en de particuliere AI-sector – niet alleen over militaire contracten, maar ook over de manier waarop deze geavanceerde systemen worden gebruikt.
Conflict van principes en contracten
Anthropic voerde aan dat de beperkingen op het gebruik van zijn systemen voor surveillance en autonome wapensystemen niet voldoende tot uiting kwamen – of niet konden worden afgedwongen – in de ontwerpcontracttaal van de regering.
Defensiefunctionarissen antwoordden dat dit wel zou moeten kunnen Claude ingezet voor ‘legitiem gebruik’ – een term die het leger enige speelruimte zou geven, ook al is binnenlandse massale surveillance volgens sommige wetten illegaal.
Dean Ball, een senior fellow bij de Foundation for American Innovation, beschreef de impasse als ‘onbekend terrein’, geworteld in concurrerende principes: de aandrang van Anthropic om contractuele grenzen te stellen aan de manier waarop zijn technologie wordt gebruikt, en de opvatting van het Pentagon dat defensiebeleid moeten prevaleren boven bedrijfsprioriteiten.
“Dit is een principekwestie voor beide partijen”, zegt Ball tegen Business Insider.
Kort nadat Anthropic tot een risico voor de toeleveringsketen werd verklaard, publiceerde OpenAI een blogpost waarin stond dat het met het Pentagon overeenstemming had bereikt over een raamwerk dat expliciet vangrails omvat die vergelijkbaar zijn met die van Anthropic.
OpenAI schetste drie belangrijke ‘rode lijnen’ die de samenwerking met het ministerie sturen:
- Zijn technologie niet gebruiken voor binnenlandse massale surveillance;
- Het heeft geen zin om op autonome wapens te mikken;
- En het heeft geen zin om geautomatiseerde beslissingen met een hoog risico te nemen, zoals ‘sociale krediet’-systemen.
OpenAI zei dat de overeenkomst gestructureerd is om deze grenzen te beschermen door middel van meerdere beschermingslagen, en dat elk gebruik van autonome wapens of surveillance moet voldoen aan de bestaande wetten en richtlijnen van het ministerie.
In een reeks posts in Ask-Me-Anything-stijl, OpenAI-CEO Sam Altman zei dat hij voorbereid was op mogelijke geschillen over de wettigheid van specifieke overheidsverzoeken. Hij zei echter dat OpenAI er niet mee zou instemmen dat regeringen hun technologie gebruiken voor massale binnenlandse surveillance.
“Ik ben bang voor een wereld waarin AI-bedrijven doen alsof ze meer macht hebben dan de overheid”, voegde Altman eraan toe. “Ik ben ook bang dat onze regering zal besluiten dat binnenlandse massa-surveillance oké is.”
Mogelijke ‘existentiële’ belangen
Juridische experts zeggen dat het dreigement van de regering om zich in deze context te beroepen op de Defense Production Act en Anthropic als een risico voor de toeleveringsketen aan te wijzen, ongebruikelijk is.
Eric Chaffee, hoogleraar bedrijfsrecht aan de Case Western Reserve University, beschreef de stap als een ‘gok’ en merkte onlangs op dat Beslissing van het Hooggerechtshof Het tariefbeleid van Trump heeft uitgebreide uitvoerende maatregelen vertraagd zonder duidelijke wettelijke steun.
Hoewel de nationale veiligheidsautoriteiten doorgaans respect genieten bij de rechtbanken, zouden juridische procedures plaatsvinden op juridisch onopgeloste gebieden.
“De overheid draagt op dit moment uiteindelijk een groot deel van het werk over aan de particuliere sector”, aldus Chaffee. “Als gevolg hiervan zullen er, vanwege de afkeer van staatsbedrijven, spanningen ontstaan, en uiteindelijk zal het in een context als deze een ingewikkeld proces zijn om uit te zoeken hoe particuliere entiteiten met de overheid omgaan.”
Voor het Pentagon zou het verwijderen van Anthropic uit het AI-netwerk van het leger tot verstoring kunnen leiden. Signum Global Advisor-beleidsanalist George Pollack zei dat Claude nauw betrokken was bij systemen voor defensieplanning en paraatheid en dat een verschuiving van die systemen operationele wrijving riskeerde.
Hij voerde ook aan dat het uitsluiten van toonaangevende AI-bedrijven in de VS in strijd is met het gestelde doel om het Amerikaanse leiderschap op technologisch gebied te behouden.
Voor Anthropic staat er ‘existentieel’ op het spel, waarschuwt Ball. Hij zei dat het geschil een huiveringwekkende boodschap zou kunnen sturen naar ondernemers over de risico’s van zakendoen met de federale overheid als bedrijven gestraft zouden kunnen worden als ze hierop aandringen. ethische vangrails.
De overeenkomst van OpenAI met het ministerie lijkt erop gericht de impasse te doorbreken die de onderhandelingen van Anthropic heeft geplaagd. In een blogpost zei OpenAI dat het verzocht om dezelfde eisen te stellen aan alle AI-laboratoria en drong er bij de regering op aan om haar geschil met Anthropic op te lossen.
Vertegenwoordigers van OpenAI en Anthropic reageerden niet onmiddellijk op het verzoek van Business Insider om commentaar. Het is nog niet duidelijk of Anthropic, of andere toonaangevende AI-bedrijven, contractvoorwaarden hebben gekregen die vergelijkbaar zijn met de voorwaarden waarmee OpenAI zegt te hebben ingestemd.
Uiteindelijk zou de manier waarop het conflict wordt opgelost niet alleen het lot van één bedrijf kunnen beïnvloeden, maar ook het machtsevenwicht tussen de Amerikaanse overheid en particuliere AI-ontwikkelaars bij het vaststellen van de regels voor de volgende generatie technologie.

