Inhoud gegenereerd door kunstmatige intelligentie zijn tegenwoordig overal aanwezig, waardoor het steeds moeilijker wordt om feit van fictie te scheiden, vooral als het om feiten gaat laatste nieuws.
Zoek niet verder Iran oorlog. Sinds de VS en Israël Iran op 28 februari hebben aangevallen, hebben onderzoekers een ongekend aantal valse en misleidende beelden geïdentificeerd die worden geproduceerd. gebruik van kunstmatige intelligentie en heeft veel mensen over de hele wereld bereikt. Onder hen nepbeelden van bomaanslagen die nooit hebben plaatsgevonden, beelden van naar verluidt buitgemaakte soldaten en propagandavideo’s gemaakt door Iran waarin president Donald Trump en anderen worden afgebeeld als Lego-achtige miniaturen.
Donderdag, de 10e Internationale Fact-Checking Dag, bood een geweldige gelegenheid om naar deze evoluerende uitdagingen te kijken.
Onjuiste informatie aangemaakt met AI gedeeld met een ongekende snelheid vanuit verschillende bronnen. Sinds het begin van de oorlog tegen Iran hebben rapporten van alle kanten van het conflict dergelijke inhoud gepromoot.
Het Instituut voor Strategische Dialoog, dat desinformatie en online-extremisme opspoort, heeft berichten op sociale media rond de oorlog in Iran onderzocht. Een van hun bevindingen was een groep X-accounts die regelmatig door AI gegenereerde inhoud plaatsten en sinds het begin van het conflict gezamenlijk meer dan 1 miljard views hadden gekregen. Dit wordt gedaan door ongeveer twee dozijn accounts, waarvan er vele een blauwe vinkjesverificatie hebben.
Hier zijn enkele tips om door AI gegenereerde inhoud te onderscheiden van de werkelijkheid in een online wereld waar dit steeds moeilijker wordt.
Zoek naar visuele aanwijzingen
Toen door AI gegenereerde afbeeldingen voor het eerst op grote schaal online verspreid werden, waren er vaak duidelijke tekenen die ze als nep konden identificeren. Misschien heeft iemand te weinig – of te veel – vingers of loopt zijn stem niet synchroon met zijn mond. De tekst is misschien niet logisch. Objecten zijn vaak vervormd of er ontbreken belangrijke onderdelen. Naarmate de technologie vordert, zijn deze aanwijzingen niet meer zo gebruikelijk als ze ooit waren, maar ze zijn nog steeds de moeite waard om naar te zoeken. Let op inconsistenties, zoals dat de auto het ene moment in de video staat en het andere moment weg is, of acties die onmogelijk zijn volgens de wetten van de natuurkunde. Sommige afbeeldingen kunnen ook te glad zijn of een onnatuurlijke glans hebben.
Zoek naar de bron
Door AI gegenereerde afbeeldingen worden keer op keer gedeeld. Eén manier om de authenticiteit ervan (of het gebrek daaraan) vast te stellen, is door naar de oorsprong ervan te zoeken. Het gebruik van omgekeerd zoeken naar afbeeldingen is een eenvoudige manier om dit te doen. Als je een video bekijkt, maak dan eerst een screenshot. Dit kan ertoe leiden dat sociale media-accounts specifiek AI-inhoud genereren, oude afbeeldingen verkeerd interpreteren of iets totaal onverwachts.
Luister naar de deskundigen
Zoek naar geverifieerde bronnen die kunnen helpen bij het verifiëren van de afbeelding. Dit kan bijvoorbeeld het controleren van feiten door toonaangevende media, verklaringen van publieke figuren of berichten op sociale media van experts op het gebied van desinformatie inhouden. Deze bronnen beschikken mogelijk over geavanceerdere technieken voor het identificeren van door AI gegenereerde inhoud of toegang tot informatie over afbeeldingen die niet toegankelijk is voor het grote publiek.
Profiteer van technologie
Er zijn veel AI-detectietools die een nuttig begin kunnen zijn. Maar wees voorzichtig, want hun beoordelingen zijn niet altijd correct. Afbeeldingen die zijn gegenereerd of gewijzigd met AI met behulp van de Google Gemini-app, bevatten een onzichtbare digitale watermerktool genaamd SynthID, die de app kan detecteren. Andere AI-generatietools hebben zichtbare watermerken toegevoegd aan de inhoud die ze produceren. Ze zijn echter vaak gemakkelijk te verwijderen, wat betekent dat de afwezigheid van een dergelijk watermerk geen bewijs is dat een afbeelding authentiek is.
Vertragen
Soms is het gewoon een kwestie van teruggaan naar de basis. Stop, haal diep adem en deel niet meteen iets waarvan je niet weet dat het echt is. Criminelen vertrouwen er vaak op dat mensen hun reacties op inhoud laten leiden door hun emoties en standpunten. Als u naar de opmerkingen kijkt, kunt u erachter komen of de afbeelding die u ziet echt is of niet. Het kan zijn dat een andere gebruiker iets heeft opgemerkt dat jij niet hebt opgemerkt, of dat je de originele bron niet hebt kunnen vinden. Maar uiteindelijk is het niet altijd mogelijk om met 100% nauwkeurigheid te bepalen of een afbeelding door AI is gegenereerd, dus blijf alert op de mogelijkheid dat de afbeelding niet echt is.
Zie je iets dat er verkeerd of misleidend uitziet? E-mail ons op FactCheck@ap.org.
Vind AP FactCheck hier: https://apnews.com/APFactCheck.
—Melissa Goldin en Barbara Whitaker, Associated Press


