Home Nieuws Antropische risicobepaling van de toeleveringsketen stopgezet door rechter

Antropische risicobepaling van de toeleveringsketen stopgezet door rechter

1
0
Antropische risicobepaling van de toeleveringsketen stopgezet door rechter

Antropisch won een een voorlopig bevel dat het Amerikaanse ministerie van Defensie verbiedt het product te etiketteren risico’s voor de toeleveringsketenwaardoor mogelijk de weg wordt vrijgemaakt voor klanten om weer bij het bedrijf te gaan werken. De beslissing die donderdag werd genomen door Rita Lin, een federale districtsrechter in San Francisco, is een symbolische tegenslag voor het Pentagon en een aanzienlijke impuls voor het generatieve AI-bedrijf in zijn pogingen om zijn macht te behouden. bedrijf en reputatie.

“De aanduiding door gedaagden van Anthropic als een ‘toeleveringsketenrisico’ is waarschijnlijk in strijd met de wet en willekeurig en grillig,” Lin schrijven ter rechtvaardiging van tijdelijke verlichting. “Het Ministerie van Oorlog verschafte geen geldige basis om uit Anthropics aandringen op gebruiksbeperkingen te concluderen dat het saboteurs zouden kunnen zijn.”

Anthropic en het Pentagon reageerden niet onmiddellijk op verzoeken om commentaar op het besluit.

Het ministerie van Defensie, dat zichzelf onder de regering-Trump het Ministerie van Oorlog noemt, vertrouwt de afgelopen jaren op de AI-tools van Claude Anthropic om gevoelige documenten te schrijven en geheime gegevens te analyseren. Maar deze maand begonnen ze Claude met pensioen te laten gaan nadat ze die Anthropic hadden bepaald kan niet worden vertrouwd. Ambtenaren van het Pentagon noemden een aantal voorbeelden waarin Anthropic naar verluidt het gebruik van zijn technologie zou hebben geplaatst of geprobeerd te beperken, waarvan de regering-Trump zei dat deze niet nodig was.

De regering vaardigde uiteindelijk verschillende richtlijnen uit, waaronder het aanmerken van het bedrijf als een risico voor de toeleveringsketen, wat tot gevolg had dat het gebruik van Claude binnen de federale overheid geleidelijk werd afgeschaft en de verkoop en publieke reputatie van Anthropic werd geschaad. Het bedrijf heeft twee rechtszaken aangespannen waarin het de sancties als ongrondwettelijk betwist. Tijdens de hoorzitting van dinsdag zei Lin zei de regering blijkbaar illegaal “gehandicapt” en “straf” Anthropic.

Lin’s beslissing van donderdag “geeft de status quo terug” naar 27 februari, vóór de richtlijn werd uitgevaardigd. “Dit belet de verdachte niet om welke juridische actie dan ook te ondernemen” op die datum, schreef hij. “Dit bevel vereist bijvoorbeeld niet dat het Ministerie van Oorlog Anthropic-producten of -diensten gebruikt en sluit het Ministerie van Oorlog niet uit om over te schakelen naar andere aanbieders van kunstmatige intelligentie, zolang dergelijke acties consistent zijn met de toepasselijke regelgeving, statuten en grondwettelijke bepalingen.”

De beslissing suggereert dat het Pentagon en andere federale agentschappen nog steeds vrij zijn om deals met Anthropic te annuleren en contractanten die Claude in hun tools integreren te vragen hiermee te stoppen, maar zonder de aanduiding van het supply chain-risico als basis te noemen.

De onmiddellijke impact blijft onduidelijk, aangezien Lin’s bevel pas een week van kracht wordt. En een federaal hof van beroep in Washington D.C. moet nog uitspraak doen over een tweede rechtszaak aangespannen door Anthropic, die zich richt op een andere wet die het bedrijf ook verbiedt software aan het leger te leveren.

Maar Anthropic zou de beslissing van Lin kunnen gebruiken om enkele klanten te laten zien dat het geïnteresseerd is om samen te werken paria van de industrie zodat de wet op de lange termijn aan zijn kant kan staan. Lin heeft geen tijdschema opgesteld voor het nemen van een definitieve beslissing.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in