De Amerikaanse minister van Defensie Pete Hegseth gaf het Pentagon opdracht om Anthropic aan te wijzen als een “risico’s voor de toeleveringsketen” op vrijdag, wat schokgolven door Silicon Valley veroorzaakte en veel bedrijven in verwarring bracht om te begrijpen of ze een van de oplossingen van de industrie konden blijven gebruiken. meest populair AI-modellen.
“Met onmiddellijke ingang mag geen enkele aannemer, leverancier of partner die zaken doet met het Amerikaanse leger enige commerciële activiteit uitoefenen met Anthropic”, schreef Hegseth in een post op sociale media.
De afspraak kwam na weken gespannen onderhandelingen tussen het Pentagon en Anthropic over hoe het Amerikaanse leger de AI-modellen van de startup zou kunnen gebruiken. In een blogpost deze week betoogde Anthropic dat zijn contract met het Pentagon niet mag toelaten dat zijn technologie wordt gebruikt voor massale binnenlandse surveillance van Amerikanen of voor volledig autonome wapens. Het Pentagon vroeg Anthropic om ermee in te stemmen dat het Amerikaanse leger zijn AI zou toepassen voor “alle legale toepassingen” zonder speciale uitzonderingen.
Door de toeleveringsketenrisico-aanduiding kan het Pentagon bepaalde leveranciers beperken of uitsluiten van defensiecontracten als wordt aangenomen dat deze beveiligingsproblemen met zich meebrengen, zoals risico’s die verband houden met buitenlands eigendom, controle of invloed. Dit is bedoeld om gevoelige militaire systemen en gegevens te beschermen tegen mogelijke compromissen.
Anthropic reageerde op een andere manier blogpost Vrijdagavond zei hij dat het “elke bepaling van het risico in de toeleveringsketen voor de rechter zou aanvechten” en dat een dergelijke aanduiding “een gevaarlijk precedent zou scheppen voor elk Amerikaans bedrijf dat met de overheid onderhandelt.”
Anthropic voegde eraan toe dat het geen directe communicatie had ontvangen van het ministerie van Defensie of het Witte Huis over onderhandelingen over het gebruik van zijn AI-modellen.
“Secretaris Hegseth suggereerde dat deze benaming iedereen die zaken doet met het leger zou verbieden zaken te doen met Anthropic. De secretaris heeft niet de wettelijke bevoegdheid om deze verklaring te ondersteunen”, schreef het bedrijf.
Het Pentagon weigerde commentaar te geven.
“Dit is het meest schokkende, schadelijke en verreikende dat ik de Amerikaanse regering ooit heb zien doen”, zegt Dean Ball, senior fellow bij de Foundation for American Innovation en voormalig senior AI-beleidsadviseur bij het Witte Huis. “We hebben eigenlijk gewoon een Amerikaans bedrijf gesanctioneerd. Als je Amerikaans bent, moet je nadenken of je hier over tien jaar moet wonen of niet.”
Mensen in heel Silicon Valley maakten gebruik van de sociale media en uitten een soortgelijke schok en teleurstelling. “De mensen die deze regering leiden zijn impulsief en wraakzuchtig. Ik geloof dat dit genoeg is om hun gedrag te verklaren”, zegt Paul Graham, oprichter van startup-accelerator Y Combinator. gezegd.
Boaz Barak, een OpenAI-onderzoeker, zei in een bericht dat “het uitoefenen van druk op een van onze leidende AI-bedrijven het juiste is om te doen tegen het ergste zelfmoorddoel dat we kunnen stellen. Ik hoop oprecht dat een nuchterder persoon zal zegevieren en dat deze aankondiging wordt teruggedraaid.”
Ondertussen maakte Sam Altman, CEO van OpenAI, eind vrijdag bekend dat het bedrijf een overeenkomst heeft bereikt met het ministerie van Defensie om zijn AI-modellen in geheime omgevingen in te zetten, blijkbaar met behulp van graveren. “Onze twee belangrijkste veiligheidsprincipes zijn het verbod op binnenlandse massale surveillance en de menselijke verantwoordelijkheid voor het gebruik van geweld, inclusief autonome wapensystemen”, zei Altman. “DoW is het eens met deze principes, weerspiegelt ze in de wet en het beleid, en we nemen ze op in onze overeenkomsten.”
Verwarde klanten
In een blogpost vrijdag zei Anthropic dat de bepaling van het supply chain-risico, onder gezag van 10 USC 3252, alleen van toepassing is op contracten van het Ministerie van Defensie die rechtstreeks met leveranciers zijn gesloten, en niet van toepassing is op de manier waarop aannemers Claude AI-software gebruiken om andere klanten te bedienen.
Drie federale contractexperts zeiden dat het momenteel onmogelijk is om te bepalen welke klanten van Anthropic eventueel de banden met het bedrijf moeten verbreken. De aankondiging van Hegseth “is niet verwikkeld in enige wetgeving die we nu kunnen begrijpen”, zegt Alex Major, partner bij het advocatenkantoor McCarter & English, dat samenwerkt met technologiebedrijven.


