Home Nieuws Het gedwongen ontslag van Anthropic uit de Amerikaanse regering vormt een bedreiging...

Het gedwongen ontslag van Anthropic uit de Amerikaanse regering vormt een bedreiging voor cruciaal AI-onderzoek op het gebied van de nucleaire veiligheid

2
0
Het gedwongen ontslag van Anthropic uit de Amerikaanse regering vormt een bedreiging voor cruciaal AI-onderzoek op het gebied van de nucleaire veiligheid

Dat plotselinge beëindiging van antropische technologie binnen de Amerikaanse regering uiten hun bezorgdheid over de vraag of federale functionarissen, die geen toegang hebben tot Claude, achter zullen blijven bij pogingen om zich tegen bedreigingen te beschermen AI-Door AI gegenereerde of ondersteunde nucleaire en chemische wapens.

Ook al was de uitrol rommelig – en Claude wordt nog steeds gebruikt in sommige delen van de regering – zou de anti-antropische houding van de regering-Trump een huiveringwekkend effect kunnen hebben op de samenwerking tussen AI-bedrijven en federale instanties, inclusief partnerschappen gericht op belangrijke nationale veiligheidskwesties die verband houden met dit soort futuristische bedreigingen, volgens verschillende bronnen. Snel bedrijf. De zorg is dat het verbreken van de banden met het bedrijf het inzicht van overheidsonderzoekers in de manier waarop criminelen in de toekomst AI zouden kunnen gebruiken om nieuwe soorten nucleaire en biologische wapens te produceren, zou kunnen beperken en de wetenschappelijke vooruitgang in bredere zin zou kunnen belemmeren.

Anthropic neemt in ieder geval sinds februari 2024 formeel deel samenwerking met de National Nuclear Security Administrationhet federale agentschap dat belast is met het toezicht op de nucleaire voorraad van het land. Het doel van dit werk, zo zei het bedrijf eerder, was om “onze AI-modellen te evalueren op potentiële nucleaire en radiologische risico’s.” De zorg hier is dat het ontwikkelen van kernwapens gespecialiseerde kennis vereist, maar AI zal, naarmate het vordert, uiteindelijk bedreven worden in het zelfstandig ontwikkelen van deze expertise. Uiteindelijk kunnen grote taalmodellen iemand helpen erachter te komen hoe bijzonder gevaarlijke wapens moeten worden ontworpen – of zelfs nieuwe wapens kunnen worden gemaakt.

Nu, in de nasleep van de Truth Social-post van president Donald Trump waarin wordt geëist dat federale werknemers stoppen met het gebruik van de technologie van Anthropic, is het onduidelijk wat er zou kunnen gebeuren met de inspanningen van Anthropic om deze toekomstige bedreigingen te voorkomen. Sommige federale instanties overwegen blijkbaar nog steeds hoe ze de Claude-gebruiksscenario’s die ze al hebben, moeten aanpakken, terwijl andere de toegang tot de tool volledig afsluiten.

“Op aanwijzing van president Trump herziet het ministerie van Energie alle bestaande contracten en toepassingen van antropische technologie”, aldus een woordvoerder van de NNSA. Snel bedrijf. “Het ministerie blijft vastbesloten ervoor te zorgen dat de technologieën die we gebruiken het algemeen belang dienen, de Amerikaanse energie en nationale veiligheid beschermen en onze missie bevorderen.” Anthropic weigerde commentaar te geven.

Veiligheidsproblemen bij het ministerie van Energie

De afgelopen jaren heeft Anthropic samengewerkt met of technologie geleverd aan verschillende instanties en nationale laboratoria onder het ministerie van Energie. Zo werd bijvoorbeeld het Lawrence Livermore National Laboratory opgericht met Claude voor Enterprise in 2025 en op dat moment was het hulpmiddel beschikbaar voor ongeveer 10.000 wetenschappers. Het laboratorium zei vorig jaar dat de technologie naar verwachting zal helpen zijn onderzoeksinspanningen te versnellen “op het gebied van nucleaire afschrikking, energieveiligheid, materiaalkunde” en andere gebieden.

Anthropic heeft ook samengewerkt met de National Nuclear Safety Administration bij het evalueren van potentiële AI-gerelateerde nucleaire veiligheidsrisico’s. Het bureau heeft Anthropic bijvoorbeeld voorzien van “high-level” statistieken en begeleiding die het bedrijf hebben geholpen zijn eigen technologische bedreigingen te analyseren. Anthropic heeft ook samengewerkt met de NNSA technologie ontwikkelen die AI-chatbotgesprekken kan scannen en categoriseren en kan zoeken naar tekenen dat iemand mogelijk een LLM gebruikt om het bouwen van kernwapens te bespreken.

Uit een inventarisatie uit 2025 voor het Department of Energy bleek dat het bureau Claude van het Pacific Northwest National Laboratory, het Lawrence Livermore National Laboratory en het Idaho National Laboratory in proeven gebruikte. Anthropic is ook een van de partners in de Genesis-missie, die tot doel heeft de wetenschappelijke ontwikkeling te versnellen door gebruik te maken van kunstmatige intelligentie.

Die samenwerking komt nu mogelijk in gevaar. Claude was “overal” in de laboratoria van het Department of Energy, ook bij de NNSA, aldus Ann Dunkin, de voormalige Chief Information Officer van het departement. Als het lab, of NNSA, “een project uitvoert met Anthropic als hun AI-tool, moeten ze op zijn minst stoppen met werken en met een nieuwe leverancier beginnen”, zei Durking. Snel bedrijf. “Het zal tijd en geld kosten. Hoogstwaarschijnlijk zullen er (nieuwe) banen ontstaan ​​omdat ze nieuwe modellen moeten opleiden.” Om simulaties uit te voeren waarbij verschillende AI-risico’s worden bestudeerd, is het belangrijk om te begrijpen hoe alle Het AI-model kan zich braaf gedragen, voegde hij eraan toe.

Met betrekking tot kernwapens bestaan ​​er zorgen dat AI gebruikt zou kunnen worden om voldoende informatie te verzamelen om zo’n wapen te bouwen – of gejailbreakt zou kunnen worden om die informatie te verschaffen, zei Dunkin.

Een voormalige functionaris van het ministerie van Binnenlandse Veiligheid die zich richt op AI-beveiligingskwesties uitte ook zijn bezorgdheid. Antropisch, zei de man Snel bedrijfis toonaangevend in het evalueren van de manier waarop AI-modellen, inclusief de eigen modellen, ernstige veiligheidsrisico’s kunnen opleveren in verband met chemische en nucleaire wapens. De druk om antropische ziekten te elimineren brengt het risico met zich mee dat mensen hun tijd verspillen en waarschijnlijk niet zal werken, zeggen ze. Dit zorgt er ook voor dat federale functionarissen achterop raken in hun pogingen om het volledige scala aan risico’s die gepaard gaan met kunstmatige intelligentie te begrijpen, of volledig te profiteren van de efficiëntie ervan, aangezien Anthropic nog steeds een toonaangevende leverancier is van bepaalde AI-mogelijkheden. “Er bestaat niet zoiets als een slechterik tegen Claude”, voegde de voormalige functionaris eraan toe.

Over het geheel genomen dreigt het plotselinge besluit van de regering tegen Anthropic andere bedrijven af ​​te schrikken die mogelijk serieuze problemen willen aanpakken, waaronder kwesties die verband houden met nucleaire veiligheid. “Anthropic heeft geleerd dat als je eenmaal de Amerikaanse regering dient, je misschien niet het recht hebt om nee te zeggen, althans nu zonder vergelding. Natuurlijk zal dit anderen ervan weerhouden om voor de overheid te werken, vooral als het gaat om gevoelige onderwerpen”, zegt Steven Adler, een voormalig OpenAI-medewerker die zich richt op AI-beveiligingskwesties.

“Er schuilt hier een bittere ironie: de regering eist tegelijkertijd dat AI-bedrijven de nationale veiligheid helpen en maakt het de verantwoordelijke actoren moeilijker om dat te doen”, zegt Alex Bores, die zich kandidaat stelt voor het Huis van Afgevaardigden in New York op een platform dat zich richt op AI-regulering. Snel bedrijf in een verklaring. “AI-bedrijven die met de NNSA samenwerken om risico’s te evalueren, zijn geen aansprakelijkheid – het is een model. Als je dit bestraft, zou dat het verkeerde signaal op het verkeerde moment zijn.”

Onvolledig exitplan

Het is nog niet duidelijk hoe federale agentschappen op dit moment de antropische technologie moeten benaderen. Trump gebruikte Truth Social om te eisen dat federale agentschappen ‘onmiddellijk elk gebruik van antropische technologie stopzetten’, hoewel dergelijke instructies meestal worden gecommuniceerd via de federale hoofdinformatiefunctionaris. De regering-Trump werkt naar verluidt aan een uitvoeringsbesluit met betrekking tot Anthropic, terwijl Anthropic een rechtszaak heeft aangespannen om de kwalificatie ervan als een ‘toeleveringsketenrisico’ aan te vechten.

Algemene dienstenadministratie, volgens één berichtblijkbaar interpreteerde Truth Social’s post als een nationale veiligheidsrichtlijn. Uit de GitHub-repository van het bureau blijkt dat Claude onlangs is verwijderd uit de AI-bronnen van de bureaus, en iemand binnen het bureau heeft bevestigd dat werknemers intern geen toegang meer hebben tot Claude. Andere mensen bij het bureau vertelden het echter Snel bedrijf dat er geen formele instructies naar de werknemers waren gestuurd over hoe Claude uit de federale use case kon worden verwijderd.

Een van de grote uitdagingen bij het verwijderen van antropische technologie uit de federale overheid is dat deze op vele manieren kan worden geleverd. In het geval van Claude omvat dit producten die rechtstreeks door Anthropic worden verkocht, maar ook integraties met populaire (en controversiële) overheidscontractanten zoals Palantir en Amazon Web Services.

Speciaal, Claude voor Regering wordt nog steeds vermeld als een van de functies die worden aangeboden in Palantir Federal Cloud Services, en verschillende instanties hebben het gebruik van het pakket geautoriseerd, waaronder Brookhaven National Lab en het Consolidated Business Center for Environmental Management, evenals het ministerie van Buitenlandse Zaken en het ministerie van Financiën. Het product beschrijft Claude als “op maat gemaakt” om te voldoen aan de hoge veiligheidseisen van de overheid. Palantir had voorafgaand aan de LLM ook een langdurige relatie met de NNSA.

Een woordvoerder van de NNSA weigerde commentaar te geven op hun aanpak van het gebruik van Claude en geheime systemen. Op het moment van schrijven heeft Palantir nog niet gereageerd op een verzoek om commentaar.

Aan de militaire kant van de regering werd veel ophef gemaakt over het feit dat alleen Caude, en niet systemen als ChatGPT, in geheime omgevingen mochten opereren. Het Pentagon heeft sindsdien een memo naar zijn medewerkers gestuurd Geef prioriteit aan het elimineren van Claude van elk systeem dat betrekking heeft op nucleaire veiligheid. Vertrouwelijke omgevingen zijn ook belangrijk voor civiele instellingen. Hoewel minister van Financiën Scott Bessent zei dat zijn bureau “einde” gebruik van Anthropic- en Claude-producten, waren er op recente bijeenkomsten gericht op het gebruik van AI binnen instanties op zijn minst enkele klachten dat andere AI-tools niet beschikbaar waren voor geheime informatie.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in