Ik ben klaar de afgelopen dagen hebben AI-bedrijven gevraagd mij gerust te stellen over hun vooruitzichten AI-beveiliging is nog niet vervaagd. Een paar jaar geleden leek er een universele overeenstemming tussen hen te bestaan bedrijf, wetgeveren het grote publiek dat serieuze regulering van en toezicht op AI niet alleen noodzakelijk, maar ook onvermijdelijk is. Veel mensen speculeren over internationale instanties die regels opstellen om ervoor te zorgen dat AI serieuzer zal worden behandeld dan andere opkomende technologieën, en dit zou op zijn minst een barrière kunnen vormen voor de gevaarlijkste toepassingen van AI. Het bedrijf beloofde veiligheid voorrang te geven boven concurrentie en winst. Hoewel er nog steeds rampen voorkomen in dystopische scenario’s, is er een mondiale consensus ontstaan om de risico’s van AI te beperken en tegelijkertijd de vruchten ervan te plukken.
De gebeurtenissen van de afgelopen week hebben deze hoop een zware slag toegebracht bittere vete tussen Pentagon en Antropisch. Alle partijen waren het erover eens dat het bestaande contract tussen de twee werd gebruikt om – op aandringen van Anthropic – te bepalen dat het Ministerie van Defensie (dat zichzelf nu het Ministerie van Oorlog noemt) de AI-modellen van Claude Anthropic niet zou gebruiken voor autonome wapens of massale surveillance van Amerikanen. Nu wil het Pentagon die rode lijn uitwissen, en de weigering van Anthropic resulteerde niet alleen in het einde van zijn contract, maar was ook de aanleiding voor minister van Defensie Pete Hegseth om verklaarde het bedrijf supply chain risk, een term die overheidsinstanties ervan weerhoudt zaken te doen met Anthropic. Zonder in te gaan op de voorwaarden van het contract en de persoonlijke dynamiek tussen Hegseth en Anthropic CEO Dario Amodei, is de conclusie dat het leger vastbesloten is om elke beperking op de manier waarop zij AI gebruiken te verwerpen, althans binnen de grenzen van de legaliteit – volgens hun eigen definitie.
De grotere vraag lijkt te zijn hoe we op het punt zijn gekomen waarop het vrijgeven van robotachtige drones en dodelijke bommen die menselijke doelen identificeren en elimineren, wordt gebruikt als iets dat het Amerikaanse leger zelfs maar zou overwegen. Mis ik het internationale debat over de voordelen van het creëren van zwermen dodelijke autonome drones die oorlogsgebieden scannen, grenzen patrouilleren of drugssmokkelaars in de gaten houden? Hegseth en zijn aanhangers betreuren de absurditeit van particuliere bedrijven die beperken wat het leger kan doen. Ik denk dat het nog gekker is dat er één bedrijf nodig is dat existentiële sancties riskeert om een potentieel oncontroleerbare technologie tegen te houden. Het ontbreken van internationale verdragen betekent immers dat elke oprukkende militie AI in al zijn vormen zal moeten gebruiken, alleen maar om zijn vijanden bij te houden. Tegenwoordig lijkt een AI-wapenwedloop onvermijdelijk.
De risico’s reiken veel verder dan het leger. Overschaduwd door het Pentagon-drama wordt een verontrustende mededeling Anthropic geplaatst op 24 februari. Het bedrijf zei dat het wijzigingen aanbrengt in zijn systemen om het risico op door AI veroorzaakte rampen te beperken, het zogenaamde Responsible Scaling Policy. Dit is een belangrijk beleid van de oprichters van Anthropic, waarbij het bedrijf belooft de releaseschema’s van AI-modellen te koppelen aan zijn veiligheidsprocedures. Het beleid stelt dat modellen niet mogen worden gelanceerd zonder beperkingen die het gebruik in het ergste geval verhinderen. Dit fungeert als een interne stimulans om ervoor te zorgen dat de veiligheid niet over het hoofd wordt gezien in de haast om geavanceerde technologie uit te rollen. Belangrijker nog is dat Anthropic hoopt dat de implementatie van dit beleid andere bedrijven zal inspireren of in verlegenheid brengen om hetzelfde te doen. Dit proces noemen ze “race naar de top.” De hoop is dat het toepassen van deze principes zal helpen de regelgeving in de sector te beïnvloeden die de chaos die AI kan veroorzaken, beperkt.
In eerste instantie leek deze aanpak veelbelovend. DeepMind en OpenAI hebben aspecten van het Antropische raamwerk overgenomen. Onlangs, toen de investeringsfondsen groeiden, de concurrentie tussen AI-laboratoria toenam en het vooruitzicht van federale regulering steeds onwaarschijnlijker begon te lijken, gaf Anthropic toe dat zijn Responsible Scaling Policy had gefaald. Deze drempels hebben niet zoveel consensus over AI-risico’s opgeleverd als gehoopt. Zoals het bedrijf in zijn blogpost opmerkte: “De beleidsomgeving is verschoven naar het prioriteren van AI-concurrentievermogen en economische groei, terwijl veiligheidsgerichte discussies op federaal niveau geen betekenisvolle grip hebben gekregen.”
Ondertussen wordt de concurrentie tussen AI-bedrijven steeds heviger. In plaats van een race naar de top lijkt de AI-competitie meer op een versie van King of the Mountain. Toen het Pentagon Anthropic dumpte, haastte OpenAI zich om het gat op te vullen met een eigen contract voor het ministerie van Defensie. Sam Altman, CEO van OpenAI, stond erop dat hij overhaast een deal sloot met het Pentagon om de druk op Anthropic te verminderen, maar Amodei was het daar niet mee eens. “Sam probeerde onze positie te verzwakken terwijl hij die leek te steunen”, zei Amodei in een verklaring interne notitie. “Hij probeert het waarschijnlijker te maken dat de regering ons zal straffen door onze publieke steun te ondermijnen.” (Amodei verontschuldig je dan voor zijn toon in het bericht.)



