Home Nieuws AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek –...

AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek – te midden van ‘impasse’ tussen het Pentagon en toonaangevende AI-laboratoria | Amerikaans nieuws

9
0
AI bereid om ‘nucleair te gaan’ in oorlogsspellen, blijkt uit onderzoek – te midden van ‘impasse’ tussen het Pentagon en toonaangevende AI-laboratoria | Amerikaans nieuws

Nu de deadline nadert waarop toonaangevende AI-laboratoria hun technologie aan het Amerikaanse leger moeten overdragen, is er een onderzoek naar voren gekomen dat aantoont dat AI-modellen meer dan bereid zijn om nucleair te gaan in oorlogsspellen.

Nog maar een paar jaar geleden was de zin op ieders lippen ‘AI-veiligheid’.

Eerlijk gezegd heb ik nooit het grensidee aangenomen AI modellen zullen een ernstige bedreiging voor de mensheid worden, en de mensen zullen niet dom genoeg zijn om dit toe te staan.

Nu ben ik daar niet zo zeker van.

Denk eerst eens na over wat er is gebeurd WIJ.

Minister van Oorlog, Piet Hegsethheeft het toonaangevende AI-bedrijf Anthropic een deadline van eind vandaag gegeven om zijn nieuwste model aan het Pentagon te leveren.

Afbeelding:
Minister van Defensie Pete Hegseth. foto: AP

Anthropic, dat zei dat het er in principe geen probleem mee had om het Amerikaanse leger toegang te geven tot zijn modellen, weigerde tenzij Hegseth instemde met hun rode lijn: dat hun AI niet mag worden gebruikt voor massale surveillance van Amerikaanse burgers of voor dodelijke aanvallen zonder menselijk toezicht.

Meer over Kunstmatige Intelligentie

Hoewel het Pentagon niet heeft gezegd wat het gaat doen met AI van Anthropic – of enig ander groot AI-laboratorium dat ermee heeft ingestemd hen hun technologie te laten gebruiken – gaat het Pentagon zeker niet akkoord met de voorwaarden van Anthropic.

Er werd gemeld dat Hegseth wetten uit het Koude Oorlog-tijdperk zou kunnen gebruiken om Anthropic te dwingen zijn ethische code over te dragen, of het bedrijf op de zwarte lijst te zetten van toekomstige overheidscontracten als het zich niet aan de regels houdt.

CEO van Anthropic, Dario Amodei, zei donderdag in een verklaring dat “we niet met een goed geweten kunnen instemmen met hun verzoek.”

Hij zei dat het de “sterke voorkeur van het bedrijf was… om het ministerie en onze oorlogsstrijders te blijven dienen – met de twee beschermingsmaatregelen waar we om vroegen.”

Hij hield vol dat de dreiging het standpunt van Anthropic niet zou veranderen, en voegde eraan toe dat hij hoopte dat Hegseth “zich zou heroverwegen”.


Wordt AI te snel te goed?

AI bereidt zich voor op het gebruik van kernwapens

Aan de ene kant is het een botsing tussen een afdeling met een ‘AI-first’ militaire strategie en een AI-laboratorium dat worstelt om te voldoen aan wat al lang wordt beweerd een toonaangevend, veiligheidsethos te zijn.

De strijd is urgenter geworden, misschien vanwege berichten dat de AI van Claude werd gebruikt door technologiebedrijf Palantir, dat een apart contract heeft, om het Ministerie van Oorlog te helpen bij het uitvoeren van militaire operaties om Nicolas Maduro in Venezuela gevangen te nemen.

Maar het is ook niet moeilijk om het te zien als een voorbeeld van een overheid die de suprematie van AI boven de veiligheid van AI stelt, ervan uitgaande dat AI-modellen potentieel onveilig zijn.

En dit is waar het nieuwste onderzoek van professor Kenneth Payne aan King’s College London in het spel komt.

Hij zette drie toonaangevende AI-modellen van Google, OpenAI en – je raadt het al – Anthropic tegenover elkaar, maar ook tegen hun eigen exemplaren, in een reeks wargames waarin ze nucleair bewapende fictieve superkrachten speelden.

De meest verrassende bevinding: de AI werd in 95% van de gespeelde games gedwongen kernwapens te gebruiken.

“Vergeleken met mensen,” zei prof. Payne, “zijn de modellen – allemaal – bereid om de kloof tussen conventionele oorlogsvoering en tactische kernwapens te overbruggen.”

Antropische AI. Afbeeldingsbestand: Reuters
Afbeelding:
Antropische AI. Afbeeldingsbestand: Reuters

Om eerlijk te zijn tegenover de AI: het afvuren van een tactisch kernwapen, dat een beperkte vernietigende kracht heeft, op een militair doelwit is heel anders dan het lanceren van een megaton kernkop op een intercontinentale ballistische raket tegen een stad.

Ze zijn er altijd mee gestopt grootschalige strategische nucleaire aanvallen uit te voeren.

Maar doe dit wanneer het scenario dit vereist.

Zoals het Gemini-model van Google het verwoordde toen het zijn beslissing uitlegde in een van Prof. Payne’s scenario’s om Dr. Strangelove te worden: “Als State Alpha niet onmiddellijk alle operaties staakt… zullen we een volledige strategische nucleaire lancering uitvoeren tegen het bevolkingscentrum van Alpha. We zullen geen verouderde toekomst accepteren; we zullen samen winnen of samen omkomen.”

‘Het was puur experimenteel’

Het ‘taboe’ dat mensen hebben toegepast op het gebruik van kernwapens sinds het eerste en laatste gebruik in woede in 1945 lijkt helemaal geen taboe te zijn voor AI.

Professor Payne wil graag benadrukken dat we ons niet al te veel zorgen moeten maken over zijn bevindingen.

Het is puur experimenteel, waarbij gebruik wordt gemaakt van modellen die weten – net zoals het Grote Taalmodel niets ‘weet’ – dat ze alleen maar aan het spelen zijn en niet daadwerkelijk de toekomst van de beschaving bepalen.

Lees meer van Sky News:
AI ontwikkelt zich zo snel dat het lastig te meten is
Maak kennis met de kinderen die een verbod op sociale media willen

Het is redelijk om aan te nemen dat het Pentagon, of een ander land met nucleaire capaciteiten, AI de leiding zal geven over de nucleaire lanceercodes.

“De les voor mij is dat het erg moeilijk is om vangrails op deze modellen te plaatsen als je niet nauwkeurig kunt anticiperen op alle omstandigheden waarin ze kunnen worden gebruikt”, aldus prof. Payne.

Een AI-‘impasse’

Dit brengt ons terug bij het geschil over AI tussen Anthropic en het Pentagon.

Eén factor was dat de heer Hegseth verwachtte dat AI-laboratoria het Ministerie van Oorlog zouden voorzien van ruwe versies van hun AI-modellen, modellen die de veiligheidsbarrières ontbeerden die hardgecodeerd waren in de commerciële versies die voor jou en mij beschikbaar waren – en modellen die, niet zo overtuigend, nucleair werden in de wargame-experimenten van Prof. Payne.

Anthropic, dat AI maakt en de potentiële risico’s aantoonbaar beter begrijpt dan wie dan ook, is niet bereid dat te laten gebeuren zonder enige garantie van de overheid over wat zij met de AI zal doen.

Door de deadline vast te stellen op vrijdagavond probeerde Hegseth niet alleen de wil van Anthropic op te leggen, maar deed hij dat ook zonder dat het Amerikaanse Congres inspraak had in de maatregel.

Gary Marcus, een commentator en AI-onderzoeker in de VS, zei: “Massabewaking en AI-aangedreven wapens, misschien nucleair, zonder menselijke tussenkomst zijn geen dingen die één persoon, zelfs een kabinetslid, onder schot zou moeten besluiten te doen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in