Home Nieuws AI zou de VS een dodelijk voordeel kunnen geven in de oorlog...

AI zou de VS een dodelijk voordeel kunnen geven in de oorlog met Iran, maar er zijn gevaren | Wetenschaps-, klimaat- en technologienieuws

3
0
AI zou de VS een dodelijk voordeel kunnen geven in de oorlog met Iran, maar er zijn gevaren | Wetenschaps-, klimaat- en technologienieuws

Vergeet sciencefiction. Het tijdperk van AI in oorlog is aangebroken.

Israël heeft een AI-systeem gebruikt Gaza om potentiële doelen te markeren en te helpen bij het prioriteren van operaties.

Het Amerikaanse leger gebruikte naar verluidt het antropische model, Claude, tijdens de creatie ervan operatie om Nicolas Maduro uit Venezuela te ontvoeren.

En zelfs daarna Anthropic kwam in de problemen met de Amerikaanse regering over hoe precies AI Het Amerikaanse leger zou Claude blijkbaar nog steeds gebruiken bij zijn aanvallen Iran.

Iran laatste: Trump bekritiseert Starmer vanwege het Britse standpunt

Experts zeggen dat het zeer waarschijnlijk is dat de raketten die vandaag boven Teheran vliegen, het doelwit waren van AI-aangedreven systemen.

“AI verandert de aard van de moderne oorlogsvoering in de 21e eeuw. Het is moeilijk om de impact die het heeft gehad en zal hebben te overschatten”, zegt Craig Jones, hoofddocent politieke geografie aan de Universiteit van Newcastle.

“Dit is een potentieel beangstigend scenario.”

Griezelig of niet, er lijkt geen weg meer terug te zijn. Als je het belang van AI voor het Amerikaanse leger wilt begrijpen, kun je het beste beginnen met het richten van de memo die minister van Defensie Pete Hegseth, die tevens minister van Oorlog is, eerder dit jaar naar alle hoge militaire leiders stuurde.

“Ik heb het Ministerie van Oorlog opdracht gegeven om de Amerikaanse militaire AI-dominantie te versnellen door een ‘AI-first’ oorlogsmacht te worden in alle componenten, van voor tot achter”, schreef Hegseth.

Dit is geen experiment, dit is een noodzaak om AI snel en op grote schaal in te voeren.

Of zoals Hegseth zegt: “Speed ​​Wins.”

Afbeelding:
Het is mogelijk dat de VS al AI gebruiken om hun raketaanvallen te informeren. Foto: AP/CentCom

Het scenario in kwestie is echter niet het scenario dat als eerste in je opkomt.

Ja, de autonomie neemt op sommige gebieden toe. In de OekraïneEr zijn bijvoorbeeld drones die een missie kunnen voortzetten, zelfs nadat ze het contact met een menselijke operator hebben verloren.

Maar we bevinden ons niet in het stadium van autonome killer-robots die het slagveld bestormen.

“We bevinden ons nog niet in het Terminator-tijdperk”, zegt David Leslie, hoogleraar ethiek, technologie en samenleving aan de Queen Mary University in Londen.

De systemen waarin AI is ingebed – in militair jargon ‘beslissingsondersteunende systemen’ genoemd – zijn adviseurs die doelen markeren, bedreigingen rangschikken en prioriteiten voorstellen.

AI-systemen kunnen veel sneller satellietbeelden, onderschepte communicatie, logistieke gegevens en socialemediastromen – duizenden, zelfs honderdduizenden inzendingen – verzamelen en oppervlaktepatronen verzamelen dan welk menselijk team dan ook.

Het idee is dat ze de mist van de oorlog helpen optrekken, waardoor commandanten de middelen kunnen inzetten waar dat het belangrijkst is, terwijl ze mogelijk nauwkeuriger zijn dan vermoeide, overweldigde en gestresste menselijke soldaten.

Dit betekent dat technologie niet alleen een hulpmiddel is, zei dr. Jones, maar een nieuwe manier om beslissingen te nemen.

“AI, zoals we het in ons leven zien, lijkt meer op infrastructuur”, zei hij. “Het zit in het systeem ingebouwd.”

“We hebben de mogelijkheid om de surveillance te combineren die we al enkele jaren doen.

“Maar nu biedt AI de stabiliteit om daarop te reageren en de Iraanse leider te doden en serieuze tegenstanders te verslaan en ze op onmogelijke manieren te vinden die ze voorheen misschien niet hadden gevonden.”

‘Een zeer overtuigend instrument’

Professor Leslie is het ermee eens dat het nieuwe systeem vanuit militair perspectief zeer capabel is.

“De race om snelheid is de drijvende kracht achter deze acceptatie”, zei hij. “Het versnellen van de besluitvormingscyclus is wat het leger een voordeel geeft in termen van dodelijkheid.”

Een belangrijk kenmerk van beslissingsondersteunende systemen is dat AI niet op knoppen drukt. Mensen wel. Dit is een belangrijke garantie in het debat over militaire AI. Er is altijd een ‘mens bij betrokken’.

Als OpenAIhet bedrijf dat het maakt GPT-chatzei na de aankondiging van een partnerschap om AI aan het Pentagon te leveren: “We zullen OpenAI-ingenieurs leveren die in de toekomst zijn toegewezen om de overheid te helpen, met veiligheidsonderzoekers en een duidelijke afstemming in de lus.”

OpenAI benadrukte ook dat het een overeenkomst heeft gesloten met het Pentagon dat zijn technologie niet zal worden gebruikt op een manier die drie ‘rode lijnen’ overschrijdt: massale binnenlandse surveillance, live autonome wapensystemen en geautomatiseerde besluitvorming met hoge inzet.

Maar ook al zijn er mensen bij betrokken, er blijven vragen bestaan.

Lees meer:
AI is bereid om ‘nucleair te gaan’ in oorlogsspellen, zo blijkt uit onderzoek
Claude Opus 4.6: Deze AI heeft zojuist de ‘automaattest’ doorstaan


Amerikaans-Israëlische luchtaanvallen vernietigen delen van Iraanse steden

Als je oorlog voert, kunnen mensen dan elke beslissing van de AI controleren? Wanneer de tijd wordt verkort en de informatie onvolledig wordt, wat wordt dan precies bedoeld met ‘menselijk toezicht’?

“Mensen zitten technisch gezien in deze cirkel”, zei dr. Jones.

“Naar mijn mening betekent dit niet dat ze voldoende op de hoogte zijn om effectieve beslissingsmacht te hebben en toezicht te houden op wat er feitelijk gebeurt. AI… is een zeer overtuigend hulpmiddel voor de mensen die de beslissingen nemen.”

Of zoals professor Leslie het verwoordt: “We worden werkelijk geconfronteerd met een potentieel gevaar… van rubber stamping, veroorzaakt door de snelheid waarmee dingen gebeuren, en dat we geen actieve, kritische menselijke betrokkenheid hebben om de aanbevelingen te beoordelen die deze systemen doen.”

En dan is er nog de vraag naar de schuld van de AI zelf.

Lees meer:
Groot-Brittannië zal HMS Dragon op Cyprus inzetten, bevestigt premier
Vraag en antwoord over Iran: Waarom Trump een snelle overwinning probeert uit te roepen

Uit tests uitgevoerd door Sky News bleek dat noch Claude noch ChatGPT konden vertellen hoeveel poten een kip had als de kip er niet uitzag zoals verwacht.

Bovendien houdt de AI vol dat het juist is, ook al is het duidelijk verkeerd.

Het voorbeeld komt uit een artikel dat tientallen voorbeelden van soortgelijke mislukkingen illustreert. “Dit is geen eenmalig voorbeeld van een dierenvoet”, zegt hoofdauteur Anh Vo.


Kunstmatige intelligentie wordt steeds sneller, maar hoe snel is dat? Rowland Manthorpe kijkt naar het laatste onderzoek.

“Het probleem doet zich voor bij alle soorten gegevens en taken”, voegde Vo eraan toe.

De reden is dat AI de wereld niet echt in menselijke termen ziet; ze raden wat er het meest waarschijnlijk zal gebeuren op basis van gegevens uit het verleden.

Vaak is een dergelijke statistische redenering zeer effectief. De wereld is zo voorspelbaar dat de waarschijnlijkheid succesvol is.

Maar sommige omgevingen zijn inherent onvoorspelbaar en riskant.

Wij testen de grenzen van deze technologie in de moeilijkst denkbare omstandigheden.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in