Home Nieuws Hoe AI-modellen voor oorlog er echt uitzien

Hoe AI-modellen voor oorlog er echt uitzien

1
0
Hoe AI-modellen voor oorlog er echt uitzien

Antropisch waarschijnlijk wel twijfels over het verlenen van onbelemmerde toegang tot het Amerikaanse leger aan zijn AI-model, maar verschillende startups bouwen geavanceerde AI specifiek voor militaire toepassingen.

Punch-technologiedat deze week een financieringsronde van 32 miljoen dollar aankondigde, ontwikkelt een model dat naar eigen zeggen binnenkort de capaciteiten van Claude zal overtreffen als het gaat om het plannen en uitvoeren van militaire operaties. En, in tegenstelling tot Anthropic, lijkt de startup minder bezorgd over het verbieden van bepaalde vormen van militair gebruik.

“Als je in het leger dient, zweer je dat je eervol en wettig zult dienen, volgens de oorlogsregels”, aldus CEO Andy Markoff. “Voor mij moeten de mensen die technologie implementeren en ervoor zorgen dat deze op een ethische manier wordt gebruikt, uniform zijn.”

Markoff is geen gewone AI-manager. Als voormalig commandant van het Special Operations Command van het US Marine Corps hielp hij bij het uitvoeren van risicovolle operaties van de speciale troepen in Irak en Afghanistan. Hij richtte Smack op samen met Clint Alanis, een andere voormalige marinier, en Dan Gould, een computerwetenschapper die eerder werkte als Vice President of Technology bij Tinder.

Het Smack-model leert optimale missieplannen te identificeren via een proces van vallen en opstaan. vergelijkbaar met hoe Google zijn programma uit 2017, AlphaGo, heeft getraind. In het geval van Smack houdt de strategie in dat het model door verschillende wargaming-scenario’s wordt geleid en dat deskundige analisten signalen geven die het model vertellen of de gekozen strategie vruchten zal afwerpen. De startup heeft misschien niet het budget van een conventioneel AI-lab, maar geeft miljoenen dollars uit om zijn eerste AI-modellen te trainen, zei Markoff.

Gevechtslijnen

Het gebruik van AI door het leger is een hot topic geworden in Silicon Valley, na ambtenaren van het ministerie van Defensie oog in oog met antropische leidinggevenden onder contractvoorwaarden van ongeveer $ 200 miljoen.

Een van de problemen veroorzaakte een breuk, wat ertoe leidde dat minister van Defensie Pete Hegseth de antropische verklaring uitriep risico’s voor de toeleveringsketenhet is de wens van Anthropic om het gebruik van zijn modellen in autonome wapens te beperken.

Markoff zei dat de hype het feit verdoezelt dat bestaande grote taalmodellen niet geoptimaliseerd zijn voor militair gebruik. Veelzijdige modellen zoals Claude zijn goed in het samenvatten van rapporten, zei hij. Maar ze zijn niet getraind in militaire data en hebben geen inzicht in de fysieke wereld op menselijk niveau, waardoor ze ongeschikt zijn voor het controleren van fysieke hardware. “Ik kan je vertellen dat ze totaal niet in staat waren het doelwit te identificeren,” beweerde Markoff.

“Niemand die ik ken op het Ministerie van Oorlog heeft het over volledige automatisering van de moordketen”, beweerde hij, verwijzend naar de stappen die betrokken zijn bij het nemen van beslissingen over het gebruik van dodelijk geweld.

Missieomvang

Amerika en andere legers gebruiken in bepaalde situaties al autonome wapens, ook in raketafweersystemen die supersnel moeten reageren.

“De VS en meer dan dertig andere staten hebben wapensystemen ingezet met een verschillende mate van autonomie, waaronder enkele die ik zou definiëren als volledig autonome systemen”, aldus Rebecca Crootof, een expert op het gebied van juridische kwesties rond autonome wapens bij de VN. Rechtsgeleerdheid van de Universiteit van Richmond.

In de toekomst zouden gespecialiseerde modellen, zoals waar Smack aan werkt, volgens Markoff ook kunnen worden gebruikt voor missieplanningsdoeleinden. Het model van het bedrijf is bedoeld om commandanten te helpen een groot deel van het vervelende werk dat gepaard gaat met het schetsen van missieplannen te automatiseren. De planning van militaire missies wordt nog steeds meestal handmatig gedaan met whiteboards en notitieboekjes, zei Markoff.

Als de VS oorlog gaan voeren met een ‘nabije staat’ als Rusland of China, zei Markoff, zou geautomatiseerde besluitvorming de ‘beslissingsdominantie’ kunnen bieden die de VS zo hard nodig heeft.

Maar de vraag blijft of AI in dergelijke situaties betrouwbaar kan worden ingezet. Een recent experiment, uitgevoerd door een onderzoeker aan King’s College London, toonde verrassend genoeg aan dat LLM heeft de neiging te stijgen nucleair conflict in oorlogsspellen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in