Op 7 oktober Een TikTok-account met de naam @fujitiva48 stelde een provocerende vraag naast de nieuwste video. “Wat vind je van dit nieuwe speelgoed voor de kleintjes?” ze vroegen het aan meer dan 2.000 kijkers, die ontdekten wat een parodie leek op een tv-commercial. Het antwoord is duidelijk. “Hé, dit is dus niet grappig”, schreef iemand. “Wie dit heeft gemaakt, moet worden onderzocht.”
Het is gemakkelijk te begrijpen waarom de video zo’n sterke reactie teweegbracht. De nepadvertentie begint met een fotorealistisch jong meisje dat speelgoed vasthoudt: roze, glanzend, met een bij op het handvat. Het is een pen, zo wordt ons verteld, terwijl het meisje en twee anderen op papier krabbelen terwijl een volwassen mannelijke voice-over het verhaal vertelt. Maar het is duidelijk dat het bloemmotief, de zoemende eigenschappen en de naam – Vibro Rose – veel op een seksspeeltje lijken en klinken. De knop ‘voeg je eigen toe’ – een functie op TikTok die mensen aanmoedigt video’s op hun feed te delen – met het onderschrift ‘Ik gebruik mijn rozenspeeltje’ – neemt zelfs de geringste twijfel weg. (WIRED heeft contact opgenomen met het @fujitiva48-account voor commentaar, maar heeft geen reactie ontvangen.)
Slechte clips gemaakt met Soera 2, Open AI de nieuwste videogenerator, die aanvankelijk alleen op uitnodiging in de VS werd uitgebracht op 30 september. In slechts één week zijn video’s zoals de Vibro Rose-clip van Sora gemigreerd en op de For You-pagina van TikTok terechtgekomen. Sommige andere nepadvertenties waren zelfs nog explicieter: WIRED vond verschillende accounts die video’s plaatsten die vergelijkbaar waren met die gemaakt door Sora 2, met waterspeelgoed in de vorm van rozen of paddenstoelen en taartdecorateurs die ‘kleverige melk’, ‘wit schuim’ of ‘slijm’ op levensechte afbeeldingen van kinderen spotten.
In veel landen zal het bovenstaande de basis vormen voor een onderzoek naar de vraag of de kinderen ook daadwerkelijk kinderen zijn, en niet het resultaat van een digitale samensmelting. Maar de wetten met betrekking tot door AI gegenereerde fetisjinhoud waarbij minderjarigen betrokken zijn, blijven onduidelijk. Nieuwe gegevens voor 2025 van Stichting Internettoezicht in Groot-Brittannië merkte op dat het aantal meldingen van door AI gegenereerd seksueel kindermisbruikmateriaal, oftewel CSAM, in één jaar tijd was verdubbeld van 199 tussen januari en oktober 2024 naar 426 in dezelfde periode in 2025. Zesenvijftig procent van deze inhoud viel in categorie A – de ernstigste categorie in Groot-Brittannië met betrekking tot penetrerende seksuele activiteit, seksuele activiteit met dieren of sadisme – en 94 procent van de illegale AI-afbeeldingen die door de IWF werden bijgehouden, waren van meisjes. (Sora lijkt geen categorie A-inhoud te produceren.)
“Vaak zien we dat de gelijkenissen van kinderen worden gecommercialiseerd om naakt- of seksuele afbeeldingen te maken, en meestal zien we dat AI wordt gebruikt om afbeeldingen van meisjes te maken. Dit is een andere manier om meisjes online te targeten”, vertelde Kerry Smith, CEO van de IWF, aan WIRED.
De toestroom van schadelijk materiaal gegenereerd door AI heeft Groot-Brittannië ertoe aangezet om een nieuwe amendementen op de Crime and Policing Billwaardoor “officiële testers” kunnen controleren of hulpmiddelen voor kunstmatige intelligentie niet in staat zijn CSAM te genereren. Zoals de BBC meldt, zullen deze wijzigingen ervoor zorgen dat modellen bescherming krijgen tegen bepaalde beelden, waaronder met name extreme pornografie en intieme beelden zonder wederzijds goedvinden. In de VS hebben 45 staten hiertegen wetten geïmplementeerd het criminaliseren van door AI gegenereerde CSAMhet meeste hiervan is de afgelopen twee jaar gebeurd, terwijl AI-generatoren zich blijven ontwikkelen.


