Weet je nog dat ‘nep’ op internet een slecht gefotografeerd beeld betekende? Ach, eenvoudiger tijden. Nu zwemmen we allemaal in de oceaan AI-gegenereerde video en deepfakes, van nepvideo’s van beroemdheden tot valse rampuitzendingen het is bijna onmogelijk om te weten wat echt is.
En het staat op het punt nog erger te worden. Sora, een AI-videotool van OpenAI, heeft de zaken nog erger gemaakt. Maar nu is zijn nieuwe virale “sociale media-app”, Sora 2, het populairst op internet. Dit is wat interessant is: het is een TikTok-achtige feed die alleen op uitnodiging toegankelijk is en die allemaal 100% nep is.
De auteur heeft ernaar verwezen als “deepfake koortsdroom“, en dat is de waarheid. Dit is een platform dat met de dag beter wordt in het laten lijken van fictie op feiten, en de risico’s zijn enorm. Als je moeite hebt om de werkelijkheid van de AI te scheiden, ben je niet de enige.
Hier zijn enkele nuttige tips die u zullen helpen de ruis te doorbreken en de waarheid van elke AI-geïnspireerde situatie te achterhalen.
Mis onze onpartijdige technische inhoud en laboratoriumbeoordelingen niet. CNET toevoegen als favoriete Google-bron.
Vanuit technisch oogpunt zijn de video’s van Sora indrukwekkend vergeleken met die van concurrenten V1 onderweg En Google, ik zie er 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenis van iemand anders gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel dat ongelooflijk realistische video’s produceert.
Daarom maken veel experts zich zorgen over Sora. Deze apps maken het voor iedereen gemakkelijk om kwaadaardige deepfakes te creëren, desinformatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Publieke figuren en beroemdheden zijn bijzonder kwetsbaar voor deze deepfakes, en vakbonden zoals zij SAG-AFTRA heeft OpenAI aangemoedigd om zijn vangrails te versterken.
Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en iedereen. Dit betekent echter niet dat er helemaal geen hoop is. Hier zijn enkele dingen waar u op moet letten om te bepalen of een video met Sora is gemaakt.
Zoek naar Sora’s watermerk
Elke video die in de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo (het wolkpictogram) dat langs de rand van de video stuitert. Dit is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen.
Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons kunnen helpen door AI gegenereerde inhoud visueel te herkennen. Google’s Tweelingen model “banaan nano”.Het geeft bijvoorbeeld automatisch een watermerk aan de afbeeldingen. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.
Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden bijgesneden. Zelfs om watermerken zoals die van Sora te verwijderen, zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI CEO Sam Altman hierover werd gevraagd, antwoordde hij gezegd de samenleving moet zich aanpassen aan een wereld waarin iedereen een nepvideo over iedereen kan maken. Vóór Sora OpenAI was er natuurlijk geen populaire, toegankelijke en vaardige manier om dergelijke video’s te maken. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.
Controleer de metagegevens
Ik weet het, je denkt waarschijnlijk dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze echt is. Ik begrijp waar je vandaan komt; dit is een extra stap en je weet misschien niet waar je moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je zou denken.
Metadata is een verzameling informatie die automatisch aan inhoud wordt gekoppeld wanneer deze wordt gemaakt. Hierdoor krijg je meer inzicht in hoe de afbeelding of video tot stand is gekomen. Dit kan het type camera omvatten dat is gebruikt om de foto te maken, de locatie, de datum en tijd waarop de video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen is gemaakt of door AI is gegenereerd. En veel door AI gegenereerde inhoud bevat ook inhoudsreferenties die de AI-oorsprong aangeven.
OpenAI maakt deel uit van de Coalition for Content Origination and Authenticity, wat voor jou Sora-video’s betekent inbegrepen C2PA-metadata. Je kunt gebruiken Verificatietool voor Content Authenticity Initiative om de metadata van een video, afbeelding of document te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)
Metagegevens van foto’s, video’s of documenten controleren:
1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie op het rechterzijpaneel. Als de inhoud door AI wordt gegenereerd, moet deze worden opgenomen in het gedeelte met de samenvatting van de inhoud.
Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video ‘gegenereerd is door OpenAI’, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.
Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je andere video’s hebt die niet van Sora zijn, bevatten deze mogelijk niet de benodigde signalen in de metadata zodat de tool kan bepalen of de video door AI is gemaakt of niet. AI-video’s die met Midjourney zijn gemaakt, worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is het onwaarschijnlijk dat de tool deze als AI zou markeren.
De verificatietool van het Content Authenticity Initiative gaf correct aan dat de video die ik met Sora maakte, door AI was gemaakt, samen met de datum en tijd waarop ik deze had gemaakt.
Zoek naar andere AI-labels en voeg uw eigen labels toe
Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft bestaande interne systemen om AI-inhoud te helpen markeren en als zodanig te labelen. Het systeem is niet perfect, maar je kunt duidelijk de labels zien van berichten die zijn getagd. TikTok En YouTube heeft een soortgelijk beleid voor het labelen van AI-inhoud.
De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een eenvoudig eerbetoon of onthulling in uw tekst kan iedereen helpen begrijpen hoe iets is gemaakt.
Terwijl je door Sora bladert, weet je dat niets echt is. Maar zodra u de app verlaat en een door AI gegenereerde video deelt, is het onze collectieve verantwoordelijkheid om bekend te maken hoe de video is gemaakt. Terwijl AI-modellen zoals Sora de grenzen tussen realiteit en AI blijven vervagen, moeten we allemaal duidelijk weten of iets echt is of AI.
Het allerbelangrijkste: blijf alert
Er bestaat geen eenvoudige methode om in één oogopslag nauwkeurig te bepalen of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt opgelicht, is door niet automatisch alles te geloven wat u online ziet. Volg je instinct: als iets niet echt voelt, is dat waarschijnlijk wel het geval. In deze met AI gevulde en ongekende tijden is je beste verdediging het nauwkeurig bekijken van de video’s die je bekijkt. Kijk niet alleen maar en scroll zonder na te denken. Controleer op gebroken tekst, ontbrekende objecten en bewegingen die in strijd zijn met de natuurkunde. En geef jezelf geen verwijten als je er soms in trapt; zelfs de experts hebben ongelijk.
(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI en beschuldigd van het schenden van de auteursrechten van Ziff Davis op de training en werking van zijn AI-systeem.)


