Home Nieuws Tegenstrijdige beslissingen zorgen ervoor dat Anthropic ‘Supply Chain Risk’ blijft

Tegenstrijdige beslissingen zorgen ervoor dat Anthropic ‘Supply Chain Risk’ blijft

2
0
Tegenstrijdige beslissingen zorgen ervoor dat Anthropic ‘Supply Chain Risk’ blijft

Antropisch “nog niet voldoet aan strenge eisen” voor tijdelijk verlies risico’s voor de toeleveringsketen Dat oordeelde het Pentagon, een Amerikaans hof van beroep in Washington DC, woensdag. Het besluit is in tegenspraak met één ding vorige maand uitgegeven door een lagere rechter in San Francisco, en het is onduidelijk hoe de tegenstrijdige prejudiciële uitspraken zullen worden opgelost.

De regering heeft Anthropic gesanctioneerd op grond van twee verschillende toeleveringsketenwetten met vergelijkbare gevolgen, en de rechtbanken van San Francisco en Washington D.C. hebben elk slechts over één van de wetten beslist. Anthropic zei dat het het eerste Amerikaanse bedrijf is dat op grond van beide wetten is aangewezen, die doorgaans worden gebruikt om buitenlandse bedrijven te straffen die een risico vormen voor de nationale veiligheid.

“Het verlenen van uitstel zou het Amerikaanse leger dwingen zijn overeenkomst met een cruciale leverancier van AI-diensten op ongewenste wijze te verlengen te midden van een aanzienlijk aanhoudend militair conflict”, aldus het beroepspanel van drie rechters. schrijven woensdag in wat zij omschrijven als een ongekende zaak. Het panel zei dat hoewel Anthropic financiële verliezen kan lijden als gevolg van de aanwijzing, het niet het risico wil lopen van “substantiële rechterlijke oplegging van militaire operaties” of de beoordeling van de nationale veiligheid door het leger “terzijde wil schuiven”.

Een rechter uit San Francisco heeft geoordeeld dat het ministerie van Defensie waarschijnlijk te kwader trouw heeft gehandeld tegen Anthropic, gedreven door frustratie over de voorgestelde beperkingen van het AI-bedrijf over de manier waarop zijn technologie kan worden gebruikt en publieke kritiek op die beperkingen. Een rechter beval vorige week de verwijdering van het risicolabel voor de toeleveringsketen, en de regering-Trump gaf hieraan gehoor door de toegang tot antropische AI-instrumenten binnen het Pentagon en binnen de federale overheid te herstellen.

Antropische woordvoerster Danielle Cohen zei dat het bedrijf dankbaar was dat de rechtbank in Washington D.C. “inzag dat deze kwestie snel moest worden opgelost” en er vertrouwen in bleef “dat de rechtbank het er uiteindelijk mee eens zal zijn dat deze bepaling van de toeleveringsketen onwettig is.”

Het ministerie van Defensie reageerde niet onmiddellijk op een verzoek om commentaar, maar waarnemend procureur-generaal Todd Blanche gepost een verklaring over ‘Ons standpunt is vanaf het begin duidelijk geweest: ons leger heeft volledige toegang nodig tot het antropische model als de technologie ervan in onze gevoelige systemen moet worden geïntegreerd. Het militaire gezag en de operationele controle behoren toe aan de opperbevelhebber en het Ministerie van Oorlog, niet aan de technologiebedrijven.’

Deze cases testen hoeveel macht de uitvoerende macht heeft over het gedrag van technologiebedrijven. De strijd tussen Anthropic en de regering-Trump komt ook op het moment dat het Pentagon AI toepast in zijn oorlog tegen Iran. Het bedrijf voerde aan dat het illegaal werd gestraft omdat het volhield dat zijn AI-tool, Claude, niet de nauwkeurigheid had die nodig is voor bepaalde gevoelige operaties, zoals het uitvoeren van dodelijke drone-aanvallen zonder menselijk toezicht.

Diverse experts op het gebied van overheidscontracten en ondernemingsrechten hebben dat gedaan vertelde WIRED dat Anthropic een sterke zaak heeft tegen de regering, maar dat rechtbanken soms hebben geweigerd het Witte Huis terzijde te schuiven als het gaat om kwesties die verband houden met de nationale veiligheid. Sommige AI-onderzoekers heeft gezegd Actie van het Pentagon tegen het antropische ‘opgewakkerde professionele debat’ over de prestaties van AI-systemen.

Anthropic heeft voor de rechtbank beweerd dat het zaken heeft verloren vanwege de aanwijzing, die volgens overheidsadvocaten het Pentagon en zijn aannemers verbiedt om de Claude AI van het bedrijf te gebruiken als onderdeel van militaire projecten. En zolang Trump aan de macht blijft, zal Anthropic wellicht niet de aanzienlijke invloed kunnen herwinnen die het in de federale regering had.

Een definitieve beslissing in de twee rechtszaken van het bedrijf kan nog enkele maanden op zich laten wachten. De rechtbank in Washington zal op 19 mei mondelinge pleidooien horen.

Tot nu toe hebben de partijen weinig details onthuld over de manier waarop het ministerie van Defensie Claude daadwerkelijk heeft gebruikt of hoeveel vooruitgang er is geboekt bij het overbrengen van personeel naar andere AI-tools van Google DeepmindOpenAI, of anderen. Het leger, dat zichzelf onder president Trump het Ministerie van Oorlog noemt, zei dat het stappen heeft ondernomen om ervoor te zorgen dat Anthropic tijdens de transitie niet opzettelijk kan proberen zijn AI-instrumenten te saboteren.

Update 8-04-26 07:27 EDT: Dit verhaal is bijgewerkt met een verklaring van waarnemend procureur-generaal Todd Blanche.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in