Home Nieuws AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe...

AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe je het verschil kunt zien – en hoe redacties kunnen reageren

9
0
AI kan nu de video’s vervalsen die we het meest vertrouwen. Hoe je het verschil kunt zien – en hoe redacties kunnen reageren

De beelden zijn echt, geverifieerd en leuk: een beveiligingscamerafragment van een coyote die stuitert op een trampoline in de achtertuin in Los Angeles. Een paar dagen nadat de video viraal ging, begonnen ook bijna identieke kangoeroes, beren en konijnen te circuleren, allemaal geproduceerd door AI. Miljoenen mensen deelden het, in de overtuiging dat ze een glimp hadden opgevangen van de dieren die zich schattig gedroegen.

Het was een leuke fout, maar ook een waarschuwing.

Door AI gegenereerde videotools hebben een lange weg afgelegd in vergelijking met het produceren van echte of duidelijk gemanipuleerde clips. Ze bootsen nu op overtuigende wijze de formaten na die we instinctief het meest vertrouwen: CCTV, dashcams, lichaamscamera’s van de politie, natuurcamera’s en video-opnamen van ooggetuigen. Dit is dat clipje vorm geven aan het publieke begrip tijdens protesten, rampen, geweld en noodsituaties. En de nep wordt niet meer van het origineel te onderscheiden.

Door AI gegenereerd realisme is in de nieuwscyclus terechtgekomen

Bij Storyful verifiëren we duizenden video’s uit de echte wereld voor redactiekamers en merken over de hele wereld. Dit jaar hebben we een test uitgevoerd: we hebben de laatste krantenkoppen van ons eigen platform in een van de nieuwste AI-videomodellen verwerkt.

Binnen enkele seconden krijgen we een fragment dat de textuur en het perspectief van ooggetuigenverslagen nabootst. In plaats van een glanzend AI-experiment zou een redelijk nieuwsachtige opname tijdens het laatste nieuws in de inbox van een redactiekamer kunnen belanden.

Naast echte originele clips moeten zelfs getrainde journalisten langzamer gaan kijken en de details observeren.

Kijk eens naar dit voorbeeld, geïnspireerd door Verified authentiek video’s gepost op sociale media na zware regenval in India:

Brandweerlieden redden een man die zich vasthoudt aan een paal tijdens zware overstromingen in India

Een man werd op dinsdag 16 september gered in de Indiase deelstaat Uttarakhand, nadat hij zich meer dan vier uur aan een elektriciteitspaal had vastgeklampt terwijl dodelijke overstromingen om hem heen raasden, meldden lokale media.

Echt:

En dit volledig synthetische video, gemaakt door de OpenAI Sora-toepassing voor het maken van video’s aan te roepen met de titel van de eerste video.

Vals:

Dit is niet langer een theoretische toekomst. Dit gebeurt op dit moment.

De vangrail is uitgegleden. In een tutorial die openlijk op Reddit circuleert, wordt uitgelegd hoe je het watermerk kunt verwijderen van video’s die zijn gemaakt door een van de populairste AI-videogeneratoren, Sora OpenAI. Eventuele beperkingen op specifieke AI-verzoeken kunnen worden omzeild, of modellen kunnen lokaal worden uitgevoerd zonder beperkingen op zeer realistische inhoud. En omdat deze tools op verzoek nepbeelden van cameratoezicht of rampen kunnen maken, is het niet de vraag of AI overtuigende video’s kan maken van dingen die nooit zijn gebeurd. Hij Hoe ver zal een overtuigende leugen zich verspreiden voordat iemand deze controleert?

Waarom door AI gegenereerde video’s betrouwbaar aanvoelen

De belangrijkste verandering in door AI gegenereerde video is niet alleen hoe het eruit ziet, maar ook hoe het zich gedraagt.

Echte ooggetuigenbeelden bevatten de ruwe randen die in het echte leven naar voren komen: handen schudden, de camera naar de grond gericht voordat de actie begint, lange tijdsperioden zonder dat er iets gebeurt, onvolmaakte hoeken en gemiste details.

AI heeft deze momenten nog niet gerepliceerd. Het komt rechtstreeks op de actie af, is perfect in het midden gekaderd, onberispelijk verlicht en speelt zich af als een decor voor maximale impact. Het biedt de momenten die we hopen te zien, zonder de menselijke tussenkomst die ze gewoonlijk omringt.

De reden is simpel. De meeste modellen zijn nog steeds diep getraind in filmisch materiaal, en niet in rommelige, door gebruikers gegenereerde inhoud. Ze begrijpen drama beter dan dat ze de werkelijkheid begrijpen. Het zijn deze hiaten die het verificatieteam in staat stellen de verschillen op te sporen – voorlopig.

Naarmate modellen evolueren en snel schrijven verbetert, zal dit gedrag vervagen. De trainingsgegevens voor dit videobasismodel omvatten video’s van instabiele waarnemers en goede documentairewaardoor ze hun stijl en gevoel voor realisme op kundige wijze kunnen nabootsen.

Het vertrouwen van het publiek begint te eroderen

Digitaal nieuwsrapport van Reuters vinden dat 58% van de wereldwijde kijkers zich zorgen maakt dat ze online niet langer onderscheid kunnen maken tussen echt en nep. Deze angst komt meestal voor in de politiek en propaganda. Dit geldt nu voor ongevaarlijke video’s in de achtertuin.

Dit markeert een diepere psychologische verandering. Zodra kijkers beginnen te twijfelen aan alledaagse video’s, zullen ze dat scepticisme aan- en uitzetten. Als ze de hondenredding in twijfel trekken, zullen ze ook het protest in twijfel trekken. Als ze een grap in twijfel trokken, zouden ze een oorlogsgebied in twijfel trekken.

Vertrouwen stort niet in één dramatisch moment in. Het erodeert druppel voor druppel, door duizenden kleine onzekerheden. En nu er steeds meer door AI gegenereerde video’s beschikbaar komen, worden originele beelden zeldzaam.

Hoe weet je wanneer een video door AI is gemaakt?

AI-detectietools kunnen een nuttig onderdeel zijn van uw workflow, maar zijn geen vervanging voor menselijke verificatie. Volgens de analyse van Storyful bereiken bestaande tools onder ideale omstandigheden een nauwkeurigheid van 65-75%, maar daalt die nauwkeurigheid binnen enkele weken na de release van een nieuw AI-model onder de 50%. Dit zijn de signalen die het verificatieteam van Storyful dagelijks gebruikt, signalen die de community snel kan herkennen.

  1. AI begint op de climax.
    Echte beelden bevatten bijna altijd dode tijd of onhandige handelingen vóór de actie.
  2. Het onderwerp bevindt zich perfect in het midden van het beeld.
    Het komt zelden voor dat een ooggetuige de chaos van het laatste nieuws als een cameraman vastlegt.
  3. De bewegingen zijn te soepel
    Echte, door gebruikers gegenereerde inhoud stottert, schudt, herfocust en glijdt weg.
  4. Tijdstempels, bewegwijzering en kentekenplaten raakten beschadigd tijdens de controle
    AI schat deze details vaak in plaats van ze nauwkeurig weer te geven.
  5. Clips van rampen en dieren in het wild zien er ‘te kalm’ uit.
    Het echte leven is onzeker. AI ziet er vaak kunstmatig uit.

Deze signalen zullen niet eeuwig duren, maar bieden momenteel belangrijke bescherming.

Authenticiteit is nu een troef

Technologieplatforms kunnen meer beperkingen toevoegen aan hun tools voor het maken van video’s, toezichthouders kunnen raamwerken bijwerken, detectietools kunnen verbeteren, en dat geldt ook voor onze kritische capaciteiten. En hoewel redactiekamers het publiek helpen door onwaarheden te navigeren, is transparantie de meest effectieve manier om het vertrouwen te herstellen.

Het publiek vertrouwt niet langer ‘het woord van de bron’. Ze willen zien hoe journalisten of redactiekamers weten dat iets echt is.

Steeds meer nieuwsorganisaties gebruiken geavanceerde verificatieformaten, waaronder BBC-verificatie En CBS Nieuws bevestigddat open source en forensisch onderzoek integreert in de rapportage, waarbij waar relevant de herkomst, het beeldmateriaal, de metadatapatronen en de geolocatie worden onderzocht. Vol verhalen nieuws draad rust al onze partners uit met basis maar belangrijke details over elke video op ons platform.

Deze transparantie is een belangrijke onderscheidende factor in een omgeving waarin door AI gegenereerde video goedkoop, snel toegankelijk is en overal kan worden gebruikt. Hoe meer door AI gegenereerde beelden het ecosysteem overspoelen, hoe geloofwaardiger de organisaties zullen zijn die van hun werk een belangrijk onderdeel van het verhaal maken.

De meest onvergetelijke video’s op internet zijn nooit perfect. Deze momenten zijn onvoorspelbaar, gebrekkig en menselijk; momenten die AI zich nog steeds moeilijk kan voorstellen. Door AI gegenereerde beelden kunnen nu echte beeldtaal nabootsen. Maar het kan de willekeur van het echte leven nog niet reproduceren. Als dit gebeurt, staat er meer op het spel dan alleen maar verkeerde informatie. Het is het vermogen van de samenleving om te geloven wat zij ziet, wanneer dat er het meest toe doet.


James Law is hoofdredacteur Vol verhaleneen persbureau dat wordt gebruikt door 70 procent van de twintig grootste redactiekamers ter wereld en gespecialiseerd is in het verifiëren van het laatste nieuws en virale video’s.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in