Home Nieuws AI-beveiliging ontmoet oorlogsmachines

AI-beveiliging ontmoet oorlogsmachines

2
0
AI-beveiliging ontmoet oorlogsmachines

Wanneer Antropisch vorig jaar de eerste majoor worden AI-bedrijf geautoriseerd door de Amerikaanse overheid voor geheime toepassingen – inclusief militaire toepassingen – veroorzaakte het nieuws geen grote opschudding. Maar deze week sloeg een tweede ontwikkeling in als een kanonskogel: het was het Pentagon dat het deed heroverweeg de relatie met het bedrijf, inclusief een contract van $ 200 miljoen, op grond van het feit dat het veiligheidsbewuste AI-bedrijf weigerde deel te nemen aan bepaalde dodelijke operaties. Het Ministerie van Oorlog zou Anthropic zelfs kunnen bestempelen als een ‘toeleveringsketenrisico’, een rode letter die doorgaans gereserveerd is voor bedrijven die zaken doen met landen die onder toezicht staan ​​van federale instanties, zoals China, wat betekent dat het Pentagon geen zaken zou doen met bedrijven die Anthropic AI gebruiken in hun defensiewerk. In een verklaring aan WIRED bevestigde topwoordvoerder van het Pentagon, Sean Parnell, dat Anthropic op de eerste plaats zat. “Onze natie vereist dat onze partners bereid zijn onze strijders te helpen winnen in welke strijd dan ook. Uiteindelijk gaat het hier om onze troepen en de veiligheid van het Amerikaanse volk”, zei hij. Dit is ook een boodschap voor andere bedrijven: OpenAI, xAI en Google, om er maar een paar te noemen momenteel het ministerie van Defensie heeft contracten voor niet-geclassificeerd werk, waarbij ze door de hoepels springen die nodig zijn om een ​​hoge goedkeuring te verkrijgen.

Er valt hier veel uit te pakken. Aan de ene kant is er de vraag of Anthropic werd gestraft omdat ze klaagde over het feit dat haar AI-model, Claude, werd gebruikt als onderdeel van een aanval om de Venezolaanse president Nicolás Maduro (d.w.z. wat wordt gerapporteerd; het bedrijf ontkent dit). Er is ook het feit dat Anthropic openlijk AI-regulering steunt – een standpunt dat uniek is voor de sector en in strijd is met het overheidsbeleid. Maar er is een groter en verontrustender probleem. Zullen de eisen van de overheid voor militair gebruik AI minder veilig maken?

Onderzoekers en leidinggevenden zijn van mening dat AI de krachtigste technologie is die ooit is ontdekt. Bijna alle AI-bedrijven zijn tegenwoordig gebaseerd op het uitgangspunt dat het bereiken van AGI, of superintelligentie, kan worden gedaan op een manier die wijdverspreide negatieve gevolgen kan voorkomen. Elon Musk, de oprichter van xAI, was ooit de grootste voorstander van het beteugelen van AI. Hij was medeoprichter van OpenAI omdat hij bang was dat de technologie te gevaarlijk was om in handen te laten van winstbejagde bedrijven.

Anthropic heeft van de ruimte de meest veiligheidsbewuste ruimte gemaakt die mogelijk is. De missie van het bedrijf is om vangrails diep in hun modellen te integreren, zodat kwaadwillende actoren het donkerste potentieel van AI niet kunnen exploiteren. Isaac Asimov zei het als eerste en beste in zijn werk robotica wet: Robots mogen mensen geen letsel toebrengen of, door niets te doen, toelaten dat mensen schade worden toegebracht. Zelfs als AI slimmer wordt dan enig mens op aarde – een mogelijkheid waar AI-leiders sterk in geloven – moeten die controles nog steeds worden gehandhaafd.

Het lijkt dus tegenstrijdig dat toonaangevende AI-laboratoria hun uiterste best doen om hun producten te gebruiken in geavanceerde militaire en inlichtingenoperaties. Als eerste grote laboratorium met een geheim contract gaf Anthropic de overheid een kans “een speciale lijn Claude Gov-modellen die speciaal zijn gebouwd voor Amerikaanse nationale veiligheidsklanten.” Anthropic zei echter dat het dit deed zonder zijn eigen veiligheidsnormen te schenden, inclusief het verbod om Claude te gebruiken voor het vervaardigen of ontwerpen van wapens. Antropis-CEO Dario Amodei specifiek heeft gezegd hij wilde niet dat Claude betrokken zou raken bij autonome wapens of AI-toezicht door de overheid. Maar dat zal waarschijnlijk niet werken onder de huidige regering. CTO van het Ministerie van Defensie, Emil Michael (voorheen Chief Business Officer van Uber) vertelde dit deze week aan verslaggevers dat de regering niet zal tolereren dat AI-bedrijven beperken hoe het leger AI in zijn wapens gebruikt. “Als er een zwerm drones uit een militaire basis komt, wat zijn dan jouw mogelijkheden om ze neer te halen? Als de menselijke reactietijden niet snel genoeg zijn… hoe ga je dat dan doen?” vroeg hij retorisch. Tot zover de eerste wet van de robotica.

Er kan een goed argument worden aangevoerd dat effectieve nationale veiligheid de beste technologie van de meest innovatieve bedrijven vereist. Hoewel een paar jaar geleden sommige technologiebedrijven terughoudend waren om met het Pentagon samen te werken, zullen ze in 2026 over het algemeen militaire contractanten zijn. Ik heb nog nooit een AI-manager horen praten over het verband tussen hun modellen en dodelijk geweld, behalve Alex Karp, CEO van Palantir. schaam je er niet voor om het te zeggentrots: “Onze producten worden soms gebruikt om mensen te vermoorden.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in