Onlangs Grok AI kritiek onder ogen zien nadat gebruikers ontdekten dat ze expliciete afbeeldingen van echte mensen maakten, inclusief vrouwen en kinderen. Hoewel xAI er nu enkele heeft geïmplementeerd beperkingendit incident bracht een ernstige zwakte aan het licht. Zonder bescherming en diverse perspectieven lopen meisjes en vrouwen een groter risico. De schade die kunstmatige intelligentie aan vrouwen en meisjes toebrengt, is reëel en gebeurt nu, en heeft gevolgen voor hun geestelijke gezondheid, veiligheid, gezondheidszorg en economische kansen.
Afgelopen herfst, een moeder hebben gevonden Waarom de geestelijke gezondheid van haar tienerdochter verslechterde: dit werd veroorzaakt door gesprekken met de Character.AI-chatbot. Hij is niet de enige. Aura’s Rapport over de staat van de jeugduit december bleek dat ouders geloven dat technologie een negatievere invloed heeft op de emoties van meisjes, waaronder stress, jaloezie en eenzaamheid: 51% vergeleken met 36% voor jongens. Dat is onaanvaardbaar en we moeten het beter doen.
De risico’s reiken verder dan de geestelijke gezondheid. OpenAI meldde onlangs dat meer dan 40 miljoen Amerikanen naar gezondheidsinformatie zoeken op ChatGPT dagelijks. Naarmate AI zich verder ontwikkelt in de gezondheidszorg, kunnen de gevolgen van vertekende trainingsgegevens gevaarlijk zijn. AI-modellen die voornamelijk zijn getraind op gezondheidsgegevens van mannen, leveren slechtere resultaten op voor vrouwen. Bijvoorbeeld AI model ontworpen om leverziekte op te sporen uit een bloedtest, miste 44% van de gevallen bij vrouwen, vergeleken met 23% bij mannen.
Ongelijk speelveld
Op de werkvloer zorgt AI niet voor een gelijk speelveld. Hoewel de wet discriminatie verbiedt, wordt deze mogelijk gemaakt door AI dienst deze tools hebben herhaaldelijk aanleiding gegeven tot bezorgdheid over vooringenomenheid, eerlijkheid en gegevensprivacy. A Studie Uit een onderzoek van de Universiteit van Washington bleek dat bij de screening van AI-cv’s de technologie in slechts 11% van de gevallen de voorkeur gaf aan vrouwengerelateerde namen.
Deze mislukkingen weerspiegelen wie onze technologie bouwt. Vrouwen kleden zich eerlijk 22% AI-personeelsbestand. Wanneer systemen worden ontworpen zonder de perspectieven van vrouwen, repliceren ze bestaande ongelijkheden en creëren ze nieuwe risico’s. Het patroon is duidelijk. AI laat meisjes en vrouwen in de steek.
Belangrijk moment
Dit is van groot belang op de arbeidsmarkt. Een kwart van de nieuwste functies op LinkedIn lijst van de 25 snelst groeiende banen in de Verenigde Staten houden verband met technologie, waarbij AI-ingenieurs bovenaan de lijst staan. Beslissingen over hoe AI vandaag de dag wordt ontworpen, zullen decennialang de toegang tot banen, gezondheidszorg, onderwijs en het maatschappelijk leven bepalen. Het is belangrijk dat vrouwen een actieve rol spelen bij de ontwikkeling van nieuwe AI-instrumenten, zodat er geen onrecht wordt ingebakken in de systemen die ons leven steeds meer beheersen.
Jonge vrouwen kunnen niet gescheiden worden van AI. Onderzoek vorig jaar uitgevoerd door Girls Who Code, in samenwerking met UCLA, bleek dat jonge vrouwen diep nadenken over de dubbele aard van technologie. Ze zien het potentieel ervan om de gezondheidszorg vooruit te helpen, de toegang tot onderwijs uit te breiden en de klimaatverandering aan te pakken. Ze onderkennen ook de gevaren, zoals vooringenomenheid, toezicht en uitsluiting van ontwikkeling. Dit is geen blind optimisme. Het biedt eerder een perspectief dat vaak verloren gaat in de huidige AI-ontwikkelingen.
Het creëren van technologie is een machtsuitoefening en brengt een grote verantwoordelijkheid met zich mee. Omdat meisjes vaak het meest getroffen worden door mislukkingen op het gebied van AI, moeten zij de mogelijkheid krijgen om oplossingen te helpen bedenken. Vrouwen houden van Girls Who Code aluin Trisha Prabhu, die het goed doet Heroverweeghulpmiddelen tegen pesten, geef een voorbeeld. Latanya Sweeney, erkend richtte als een van de leidende denkers op het gebied van AI het Harvard Public Interest Technology Lab op. Hun prestaties tonen het potentieel aan wanneer vrouwen de technologische ontwikkeling leiden.
Slimme zet
Als we veiligere en meer verantwoorde AI-systemen willen, zijn drie stappen essentieel.
Ten eerste moet het computerwetenschappelijk onderwijs de sociale impact integreren. Coderen kan niet los van de gevolgen ervan worden onderwezen. Studenten moeten technische vaardigheden leren, evenals een kritische analyse van hoe technologie gemeenschappen en levens vormt. Deze aanpak werpt zijn vruchten af. Een studente van Girls Who Code gebruikte de vaardigheden die ze had geleerd bijvoorbeeld om een app te maken met de naam AIInTech om immigrantengezinnen te helpen hun persoonlijke financiën te beheren.
Ten tweede moeten vrouwen vertegenwoordigd zijn in de ontwikkeling en het bestuur van AI, vooral vrouwen uit historisch achtergestelde gemeenschappen. Ze hebben een plek nodig aan de tafel waar AI-systemen worden ontworpen, getest en beheerd. Dit betekent dat er moet worden gezorgd voor genderdiversiteit in de AI-ethiekraden en in de AI-commissies van de overheid die de meest getroffen demografische groepen vertegenwoordigen.
Ten slotte moet de manier waarop we kunstmatige intelligentie evalueren veranderen. Tegenwoordig wordt AI beoordeeld op basis van efficiëntie, nauwkeurigheid en winstgevendheid. We moeten ook de gezondheid, gelijkheid en het welzijn evalueren, vooral voor meisjes en jonge vrouwen. Voordat een AI-systeem wordt geïmplementeerd in een omgeving met een hoog risico, zoals de gezondheidszorg, moet het een test voor gendervooroordelen doorstaan en aantonen dat het geen uiteenlopende resultaten oplevert. New York City vereist bijvoorbeeld dat bedrijven die geautomatiseerde besluitvormingsinstrumenten gebruiken, jaarlijks onafhankelijke bias-audits ondergaan.
We hoeven de zwakke punten van AI niet standaard te accepteren. We zijn in realtime getuige van de impact van AI op meisjes, en we moeten deze kans grijpen om van koers te veranderen terwijl deze technologie nog in ontwikkeling is. Wanneer meisjes de kans krijgen om leiding te geven op het gebied van AI, zullen ze veiligere systemen bouwen, niet alleen voor zichzelf, maar voor iedereen.



