Wanneer de hele wereld zich haast om ervan te profiteren de kracht van kunstmatige intelligentieMilitante groepen experimenteren ook met de technologie, hoewel ze niet zeker weten wat ze ermee moeten doen.
Voor extremistische organisaties, AI zou een kunnen zijn krachtig hulpmiddel Nationale veiligheidsexperts en spionagediensten waarschuwen om nieuwe leden te werven, realistische nepbeelden te produceren en hun cyberaanvallen te perfectioneren.
Een persoon die vorige maand een bericht op de website van een pro-ISIS-groep plaatste, drong er bij andere ISIS-aanhangers op aan om AI onderdeel te maken van hun operaties. “Een van de beste dingen van AI is het gebruiksgemak”, schreef de gebruiker in het Engels.
“Sommige inlichtingendiensten zijn bezorgd dat AI zal bijdragen aan de rekrutering”, vervolgde de gebruiker. ‘Dus laat hun nachtmerries uitkomen.’
ISIS, dat jaren geleden grondgebied in Irak en Syrië veroverde maar nu een gedecentraliseerde alliantie is van militante groepen met een gewelddadige ideologie, realiseerde zich enkele jaren geleden dat sociale media een krachtig instrument zouden kunnen zijn voor rekrutering en desinformatie. Het is dus niet verrassend dat de groep AI aan het testen is, zeggen nationale veiligheidsexperts.
Voor extremistische groeperingen die geen sterke banden en onvoldoende middelen hebben – of zelfs criminele actoren met een internetverbinding – kan AI worden gebruikt om propaganda of deepfakes op grote schaal te verspreiden, waardoor hun bereik en invloed worden vergroot.
“Voor elke tegenstander maakt AI het echt gemakkelijker om dingen te doen”, zegt John Laliberte, een voormalig kwetsbaarheidsonderzoeker bij de National Security Agency en nu CEO van cyberbeveiligingsbedrijf ClearVector. “Met AI kunnen zelfs kleine groepen die niet veel geld hebben, toch impact hebben.”
Hoe extremistische groepen experimenteren
Militante groepen begonnen AI te gebruiken zodra programma’s als ChatGPT algemeen toegankelijk werden. In de jaren daarna hebben ze steeds vaker generatieve AI-programma’s gebruikt om realistisch ogende foto’s en video’s te produceren.
Wanneer deze nep-inhoud wordt gekoppeld aan algoritmen van sociale media, kan deze helpen nieuwe mensen te rekruteren, vijanden in verwarring te brengen of bang te maken, en propaganda te verspreiden op een schaal die een paar jaar geleden nog ondenkbaar zou zijn geweest.
De groepen verspreidden nepbeelden van de oorlog tussen Israël en Hamas twee jaar geleden, waarop verlaten en bebloede baby’s in gebombardeerde gebouwen worden afgebeeld. Deze beelden voeden woede en polarisatie, terwijl ze de ware verschrikkingen van oorlog verdoezelen. Gewelddadige groepen in het Midden-Oosten gebruiken de foto’s om nieuwe leden te werven, net als antisemitische haatgroepen in de VS en andere landen.
Iets soortgelijks gebeurde vorig jaar nadat bij een aanval, opgeëist door een ISIS-filiaal, bijna 140 mensen omkwamen op een concertlocatie in Rusland. In de dagen na de schietpartij circuleerden door AI gegenereerde propagandavideo’s op grote schaal op discussieborden en sociale media, op zoek naar nieuwe rekruten.
ISIS heeft ook nep-audio-opnamen gemaakt waarop te zien is dat zijn leiders geschriften lezen en AI gebruiken om berichten snel in verschillende talen te vertalen, aldus onderzoekers van SITE Intelligence Group, een bedrijf dat extremistische activiteiten volgt en onderzoek doet naar het toenemende gebruik van AI door ISIS.
‘Aspirationeel’ – voor nu
Deze groepen lopen achter op China, Rusland of Iran en beschouwen het gebruik van meer geavanceerde AI nog steeds als ‘ambitieus’, aldus Marcus Fowler, een voormalige CIA-agent die nu CEO is van Darktrace Federal, een cyberbeveiligingsbedrijf dat samenwerkt met de federale overheid.
Maar de risico’s zijn te groot om te negeren en zullen waarschijnlijk toenemen naarmate het gebruik van goedkope en krachtige AI wijdverspreid wordt, zei hij.
Hackers maken al gebruik van synthetische audio en video voor phishing-campagnes, waarbij ze zich proberen voor te doen als senior leiders uit het bedrijfsleven of de overheid om toegang te krijgen tot gevoelige netwerken. Ze kunnen AI ook gebruiken om kwaadaardige code te schrijven of bepaalde aspecten van cyberaanvallen te automatiseren.
Zorgwekkender is de mogelijkheid dat militante groepen AI proberen te gebruiken om biologische of chemische wapens te helpen produceren, waardoor een gebrek aan technische expertise wordt gemaskeerd. Het risico is opgenomen in de bijgewerkte Homeland Threat Assessment van het Department of Homeland Security, die eerder dit jaar werd gepubliceerd.
“ISIS kwam al vroeg op Twitter terecht en vond een manier om sociale media in hun voordeel te gebruiken”, zei Fowler. “Ze zijn altijd op zoek naar iets wat ze aan hun arsenaal kunnen toevoegen.”
Bestrijd de groeiende bedreigingen
Wetgevers hebben verschillende voorstellen gedaan en zeggen dat er dringend actie nodig is.
Senator Mark Warner uit Virginia, de beste democraat in de inlichtingencommissie van de Senaat, zei bijvoorbeeld dat de VS het voor AI-ontwikkelaars gemakkelijker moeten maken om informatie te delen over hoe hun producten worden gebruikt door criminelen, of het nu extremisten, criminele hackers of buitenlandse spionnen zijn.
“Sinds eind 2022, met de release van ChatGPT voor het publiek, is het duidelijk dat dezelfde fascinatie en experimenten met generatieve AI die het publiek heeft gehad, ook zal worden toegepast op een aantal slechte acteurs”, aldus Warner.
Tijdens een recente hoorzitting over extremistische dreigingen hebben wetgevers vernomen dat ISIS en Al-Qaeda trainingsworkshops hebben georganiseerd om hun aanhangers te helpen AI te leren gebruiken.
Wetgeving die vorige maand door het Amerikaanse Huis van Afgevaardigden is aangenomen, vereist dat binnenlandse veiligheidsfunctionarissen jaarlijks de AI-risico’s van dergelijke groepen beoordelen.
Bescherming tegen kwaadwillig gebruik van AI verschilt niet van de voorbereiding op meer conventionele aanvallen, zo sponsort vertegenwoordiger August Pfluger, R-Texas, het wetsvoorstel.
“Ons beleid en onze capaciteiten moeten gelijke tred houden met toekomstige bedreigingen”, zei hij.
—David Klepper, Associated Press


