Trump-administratie heeft dinsdag in een rechtszaak betoogd dat het de First Amendment-rechten van Anthropic niet schendt door AI-ontwikkelaars aan te merken als risico’s voor de toeleveringsketen en in te schatten dat rechtszaak van het bedrijf vechten tegen de regering zal mislukken.
“Het Eerste Amendement is geen vrijbrief om eenzijdig contractvoorwaarden aan de regering op te leggen, en Anthropic haalt niets aan om zo’n radicale conclusie te ondersteunen”, schreven advocaten van het Amerikaanse ministerie van Justitie.
Het antwoord werd ingediend bij de federale rechtbank in San Francisco, een van de twee plaatsen waar Anthropic is gevestigd het aanvechten van het besluit van het Pentagon om sancties op te leggen bedrijven met labels die bedrijven zouden kunnen uitsluiten van defensiecontracten vanwege zorgen over mogelijke beveiligingsproblemen. Anthropic voerde aan dat de regering-Trump haar autoriteit had overschreden bij het toepassen van het label en het gebruik van de technologie van het bedrijf binnen het departement had verhinderd. Als de titel gehandhaafd blijft, kan Anthropic miljarden dollars verliezen in verwachte inkomsten Dit jaar.
Anthropic is van plan om de normale activiteiten voort te zetten totdat de rechtszaak is opgelost. Rita Lin, de rechter die toezicht houdt op de zaak San Francisco, heeft aanstaande dinsdag een hoorzitting gepland om te beslissen of zij aan het verzoek van Anthropic zal voldoen.
Advocaten van het ministerie van Justitie, die in de aanvraag van dinsdag naar het ministerie van Defensie en andere instanties schreven, beschreven de zorgen van Anthropic over mogelijk omzetverlies als “juridisch onvoldoende om onherstelbare schade te veroorzaken” en vroegen Lin om het bedrijf uitstel te weigeren.
De advocaten schreven ook dat de regering-Trump gemotiveerd was om in actie te komen vanwege “bezorgdheid over het potentiële toekomstige gedrag van Anthropic als ze toegang blijven hebben” tot technologiesystemen van de overheid. “Niemand was van plan de expressieve activiteiten van Anthropic te beperken”, schreven ze.
De regering betoogt dat het streven van Anthropic om de manier waarop het Pentagon zijn AI-technologie kan gebruiken te beperken, minister van Defensie Pete Hegseth ertoe heeft gebracht ‘redelijkerwijs’ te concluderen dat ‘personeel van Anthropic sabotage zou kunnen plegen, kwaadwillig ongewenste functionaliteit zou kunnen introduceren of het ontwerp, de integriteit of de werking van nationale veiligheidssystemen zou kunnen ondermijnen.’
Het ministerie van Defensie en Anthropic hebben ruzie gemaakt over mogelijke beperkingen op het AI Claude-model van het bedrijf. Anthropic is van mening dat zijn model niet mag worden gebruikt om wijdverbreide surveillance van Amerikaanse burgers mogelijk te maken en dat het momenteel niet betrouwbaar genoeg is om volledig autonome wapens aan te drijven.
Verschillende juridische experts vertelden eerder aan WIRED dat Anthropic een sterk argument heeft dat haar acties in de toeleveringsketen illegale vergelding vormen. Maar rechtbanken hebben vaak de nationale veiligheidsargumenten van de regering aanvaard, en ambtenaren van het Pentagon hebben Anthropic afgeschilderd als een malafide aannemer wiens technologie niet te vertrouwen is.
“In het bijzonder maakte DoW zich zorgen dat het toestaan van Anthropic om toegang te blijven krijgen tot de technische en operationele oorlogsinfrastructuur van DoW onaanvaardbare risico’s zou introduceren in de toeleveringsketen van DoW”, aldus het document dat dinsdag werd ingediend. “AI-systemen zijn zeer gevoelig voor manipulatie, en Anthropic kan proberen zijn technologie uit te schakelen of preventief het gedrag van zijn modellen te veranderen, vóór of tijdens gevechtsoperaties, als Anthropic – naar eigen goeddunken – vindt dat de ‘rode lijnen’ van het bedrijf worden overschreden.”
Het ministerie van Defensie en andere federale instanties werken eraan om de AI-tools van Anthropic de komende maanden te vervangen door producten van concurrerende technologiebedrijven. Een van Claude’s belangrijkste toepassingen in het leger is via Palantir-software voor gegevensanalysemensen die bekend zijn met de zaak vertelden WIRED.
In een dinsdag ingediend dossier voerden de advocaten aan dat het Pentagon “niet zomaar de rollen kan omdraaien wanneer Anthropic momenteel het enige AI-model is dat geautoriseerd is voor gebruik” op de “geheime systemen en gevechtsoperaties met hoge intensiteit” van het departement. De afdeling probeert AI-systemen van Google, OpenAI en xAI als alternatieven te implementeren.
Een aantal bedrijven en groepen, incl AI-onderzoekerMicrosoft, de federale werknemersvakbond en voormalige militaire leiders hebben rechtszaken ingediend ter ondersteuning van Anthropic. Er werd niets ter ondersteuning van de regering naar voren gebracht.
Anthropic heeft tot vrijdag de tijd om een tegenreactie in te dienen op de argumenten van de regering.



