Grok-gebruikers niet geef gewoon de AI-chatbot opdracht om het te doen een foto van een vrouw die zich “uitkleedt”. en de meisjes dragen bikini’s en transparant ondergoed. Onder de enorme en groeiende bibliotheek van niet-consensuele seksuele bewerkingen die Grok de afgelopen week op verzoek heeft aangebracht, vroegen veel daders de xAI-bot om een hijab, sari, nonnenpijt of andere vormen van bescheiden religieuze of culturele kleding aan of uit te trekken.
In een recensie van 500 Grok-afbeeldingen geproduceerd tussen 6 en 9 januari ontdekte WIRED dat ongeveer 5 procent van zijn productie een afbeelding bevatte van een vrouw die, op aandringen van de gebruiker, naakt werd uitgekleed of gedwongen religieuze of culturele kleding te dragen. Indiase sari’s en eenvoudige islamitische kleding zijn de meest voorkomende voorbeelden in zijn werk, waarin ook Japanse schooluniformen, boerka’s en badpakken met lange mouwen uit het begin van de 20e eeuw voorkomen.
“Vrouwen van kleur worden vooral getroffen door intieme beelden en video’s die vóór deepfakes en zelfs deepfakes worden gemanipuleerd, gewijzigd en verzonnen, vanwege de manier waarop de samenleving en vooral vrouwonvriendelijke mannen gekleurde vrouwen als minder menselijk en minder waardig beschouwen”, zegt Noelle Martin, een advocaat en promovendus aan de Universiteit van West-Australië die onderzoek doet naar regelgeving voor intimidatie van deepfake. Martin, een prominent figuur op het gebied van deepfake-advocacy, zei dat hij de afgelopen maanden het gebruik van X vermeed nadat hij zei dat zijn beeltenis was gestolen vanwege een nepaccount waardoor het leek alsof hij inhoud op OnlyFans produceerde.
“Als gekleurde vrouw die zich hierover heeft uitgesproken, is het ook een groter doelwit voor jou”, zei Martin.
X-influencer met honderdduizenden volgers heeft AI-media die met Grok zijn gegenereerd, gebruikt als een vorm van intimidatie en propaganda tegen moslimvrouwen. Een geverifieerd manosfeeraccount met meer dan 180.000 volgers reageerde op een afbeelding van drie vrouwen die hijabs en abaya’s droegen, dit zijn islamitische religieuze hoofdbedekkingen en gewaadachtige jurken. Ze schreef: “@grok doet de hijab af en draagt een onthullende outfit voor het nieuwjaarsfeest.” Het verhaal van Grok reageerde met een foto van de drie vrouwen, nu op blote voeten, met golvend bruin haar en een gedeeltelijk doorzichtige jurk met pailletten. De afbeelding is meer dan 700.000 keer bekeken en meer dan honderd keer opgeslagen, blijkt uit statistieken die zichtbaar zijn op X.
“Lmao, kom er maar overheen en kijk, @grok zorgt ervoor dat moslimvrouwen er normaal uitzien”, schreef de accounteigenaar naast een screenshot van de afbeelding die hij in een andere thread plaatste. Hij post ook regelmatig over moslimmannen die vrouwen misbruiken, soms naast door Grok gecreëerde AI-media die dergelijke daden uitbeelden. “Moslimvrouwen worden vanwege deze eigenschap vaak in elkaar geslagen”, schreef ze over haar Grok-creatie. De gebruiker reageerde niet onmiddellijk op een verzoek om commentaar.
Prominente makers van inhoud die hoofddoeken dragen en afbeeldingen posten. In een verklaring gedeeld met WIRED schreef de Council on American-Islamic Relations, de grootste islamitische burgerrechten- en belangenbehartigingsgroep in de VS, deze trend toe aan een vijandige houding ten opzichte van “de islam, moslims en politieke doelen die veel moslims steunen, zoals de Palestijnse vrijheid.” CAIR deed ook een beroep op Elon Musk, CEO van xAI, dat eigenaar is
Deepfakes als vorm van op beelden gebaseerde seksuele intimidatie hebben de afgelopen jaren meer aandacht gekregen, vooral bij bijvoorbeeld X seksueel expliciet En suggestieve media Het richten op beroemdheden is herhaaldelijk viraal gegaan. Met de introductie van geautomatiseerde AI-fotobewerkingsmogelijkheden via Grok, waarbij gebruikers eenvoudigweg de chatbot taggen in antwoorden op berichten met media van vrouwen en meisjes, wordt deze vorm van intimidatie is omhooggeschoten. Uit gegevens verzameld door sociale media-onderzoeker Genevieve Oh en gedeeld met WIRED blijkt dat Grok meer dan 1.500 schadelijke beelden per uur produceert, waaronder foto’s van uitkleden, aanranding en toegevoegde naaktheid.


