Home Nieuws De Oversight Board zei dat Meta nieuwe regels nodig heeft voor door...

De Oversight Board zei dat Meta nieuwe regels nodig heeft voor door AI gegenereerde inhoud

2
0
De Oversight Board zei dat Meta nieuwe regels nodig heeft voor door AI gegenereerde inhoud

De Oversight Board dringt er opnieuw bij Meta op aan om de regels rond door AI gegenereerde inhoud te herzien. Deze keer zei het bestuur dat Meta aparte regels moet creëren voor AI-inhoud die niet afhankelijk is van desinformatiebeleid, moet investeren in betrouwbaardere detectietools en onder andere beter gebruik moet maken van digitale watermerken.

De aanbevelingen van de groep kwamen voort uit een door AI gegenereerde video die vorig jaar werd gedeeld en die beweerde beschadigde gebouwen in de Israëlische stad Haifa te tonen tijdens het Israëlisch-Iran-conflict in 2025. De clip, die meer dan 700.000 keer werd bekeken, werd geplaatst door een account dat beweerde een nieuwskanaal te zijn, maar in werkelijkheid werd beheerd door iemand op de Filipijnen.

Nadat de video aan Meta was gerapporteerd, weigerde het bedrijf deze te verwijderen of een AI-label met ‘hoog risico’ toe te voegen dat duidelijk aangaf dat de inhoud met AI was gemaakt of gemanipuleerd. Het bestuur heeft het besluit van Meta om geen ‘hoog risico’-label toe te voegen teruggedraaid en zei dat de zaak verschillende gebieden aan het licht brengt waar de huidige AI-regelgeving van het bedrijf tekortschiet.

“Meta moet meer doen om de verspreiding van misleidende, door AI gegenereerde inhoud op zijn platforms aan te pakken, ook door netwerken van niet-authentieke of beledigende accounts en pagina’s, vooral die gerelateerd aan het algemeen belang, zodat gebruikers onderscheid kunnen maken tussen echt en nep”, schreef het bestuur in zijn besluit. Meta schakelde uiteindelijk drie accounts uit die aan de pagina waren gekoppeld nadat het bestuur ‘duidelijke signalen van fraude’ had opgemerkt.

Een van de belangrijkste aanbevelingen van het bestuur was dat Meta regels zou opstellen die specifiek zijn voor door AI gegenereerde inhoud en los staan ​​van het desinformatiebeleid. De regels, zo zei de raad, zouden details moeten bevatten over hoe en wanneer gebruikers AI-inhoud moeten labelen, evenals informatie over hoe Meta degenen straft die de regels overtreden.

Het bestuur was ook zeer kritisch over de manier waarop Meta momenteel het ‘AI Info’-label gebruikt, en stelde dat de manier waarop het wordt toegepast ‘noch robuust noch alomvattend genoeg is om te concurreren met de schaal en snelheid van door AI gegenereerde inhoud’, vooral in tijden van conflict of crisis. “Een systeem dat te sterk leunt op zelfonthulling van AI-gebruik en intensievere controle (wat niet vaak voorkomt) om deze resultaten op de juiste manier te labelen, kan de huidige uitdagingen niet aan.”

Meta moet volgens het bestuur ook investeren in meer geavanceerde detectietechnologie die AI-media, inclusief audio en video, op betrouwbare wijze kan labelen. De groep voegde eraan toe dat zij “bezorgd” was over berichten dat het bedrijf “inconsequent” digitale watermerken toepaste op AI-inhoud die door zijn eigen AI-tools was gemaakt.

Meta heeft niet direct gereageerd op een verzoek om commentaar op het besluit van de Raad van Commissarissen. Het bedrijf heeft zestig dagen de tijd om formeel op de aanbevelingen te reageren.

Het besluit is niet de eerste keer dat het bestuur kritiek uit op Meta’s omgang met AI-inhoud. De groep omschreef de gemanipuleerde mediaregelgeving van het bedrijf bij twee andere gelegenheden als “onsamenhangend” en bekritiseerde het bedrijf omdat het afhankelijk was van derde partijen, waaronder organisaties voor factchecking, om problematische inhoud te signaleren. Meta’s afhankelijkheid van factcheckers en andere “vertrouwde partners” kwam in dit geval opnieuw naar voren, waarbij het bestuur zei dat het van deze groepen had gehoord dat Meta “minder reageerde op outreach en zorgen, deels als gevolg van een aanzienlijke vermindering van de capaciteit van Meta’s interne teams.” Meta, zo schreef de raad, ‘zou zelf negatieve impactbeoordelingen moeten kunnen uitvoeren, in plaats van uitsluitend te vertrouwen op partners die hen bijstonden tijdens gewapende conflicten.’

Hoewel het besluit van de Oversight Board betrekking heeft op berichten van vorig jaar, heeft de kwestie van door AI gegenereerde inhoud tijdens gewapende conflicten nieuwe urgentie gekregen tijdens recente conflicten in het Midden-Oosten. Sinds het begin van de Amerikaanse en Israëlische aanvallen op Iran eerder deze maand is er een scherpe toename geweest van door AI veroorzaakte desinformatie op sociale media. Het bestuur, dat eerder heeft aangegeven met generatieve AI-bedrijven te willen werken, heeft suggesties gedaan die niet alleen voor Meta lijken te gelden.

“De industrie heeft samenhang nodig om gebruikers te helpen nep-inhoud te onderscheiden die door AI is gegenereerd, en platforms moeten inbreukmakende accounts en pagina’s aanpakken die dergelijke output delen”, schreef hij.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in