Voorbij zijn de dagen dat ‘namaakproducten’ op internet gemakkelijk te herkennen waren, vaak slechts slecht gefotoshopte afbeeldingen. Nu zwemmen we in de oceaan AI-gegenereerde video en deepfakes, variërend van nep-aanbevelingen van beroemdheden tot valse rampuitzending. De recente technologie is zo slim geworden in het vervagen van de grenzen tussen realiteit en fictie, dat het bijna onmogelijk is om te zeggen wat echt is.
En de situatie escaleerde snel. OpenAI’s Sora heeft de boel op scherp gezet, maar is nu een virale ‘social media-app’. Soera 2is het populairste – en meest misleidende – ticket op internet. Dit is een feed in TikTok-stijl die allemaal 100% nep is. Deze auteur noemt het “deepfake koortsdroom‘ en met goede reden. Het platform blijft gedijen in het realistisch laten lijken van fictie, met aanzienlijke risico’s uit de echte wereld.
Als je problemen hebt om het echte werk van de AI te scheiden, ben je niet de enige. Hier zijn enkele nuttige tips die je zullen helpen de ruis te doorbreken en de waarheid achter elke AI-geïnspireerde creatie te ontdekken.
Mis onze onpartijdige technische inhoud en laboratoriumbeoordelingen niet. CNET toevoegen als favoriete Google-bron.
Mijn AI-expert heeft Sora’s video gemaakt
Vanuit technisch oogpunt zijn de video’s van Sora indrukwekkend vergeleken met die van concurrenten Halverwege V1 En Google, ik begrijp het 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenis van iemand anders gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel dat ongelooflijk realistische video’s produceert.
Daarom maken veel experts zich zorgen over Sora. Deze apps maken het voor iedereen gemakkelijk om kwaadaardige deepfakes te creëren, desinformatie te verspreiden en de grens tussen wat echt is en wat niet te vervagen. Publieke figuren en beroemdheden zijn bijzonder kwetsbaar voor deze deepfakes, en vakbonden als SAG-AFTRA hebben OpenAI ertoe aangezet precies dat te doen. verstevig de vangrail.
Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en iedereen. Dit betekent echter niet dat er helemaal geen hoop is. Hier zijn enkele zaken waar u op moet letten om te bepalen of een video met Sora is gemaakt.
Zoek naar Sora’s watermerk
Elke video die in de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo – het wolkpictogram – dat langs de rand van de video stuitert. Dit is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen. Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons kunnen helpen door AI gegenereerde inhoud visueel te herkennen. Google’s Tweeling model “banaan nano”. automatisch een watermerk op de afbeelding. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.
Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden bijgesneden. Zelfs om watermerken zoals die van Sora te verwijderen, zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI-CEO Sam Altman vroeg hieroverhij zei dat de samenleving zich moet aanpassen aan een wereld waarin iedereen een nepvideo over iedereen kan maken. Vóór Sora bestond er natuurlijk geen populaire, toegankelijke en vaardige manier om dergelijke video’s te maken. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.
Controleer de metagegevens
Ik weet dat je waarschijnlijk denkt dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze origineel is. Ik begrijp waar je vandaan komt. Dit is een extra stap en het kan zijn dat u niet weet waar u moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je zou denken.
Metadata is een verzameling informatie die automatisch aan inhoud wordt gekoppeld wanneer deze wordt gemaakt. Hierdoor krijg je meer inzicht in hoe de afbeelding of video tot stand is gekomen. Dit kan het type camera omvatten dat is gebruikt om de foto te maken, de locatie, de datum en tijd waarop de video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen is gemaakt of door AI is gegenereerd. En veel door AI gegenereerde inhoud bevat ook inhoudsreferenties die de AI-oorsprong aangeven.
OpenAI maakt deel uit van de Coalition for Content Origination and Authenticity, wat Sora betekent video’s inbegrepen C2PA-metagegevens. Je kunt gebruiken verificatie hulpmiddel van het Content Authenticity Initiative om metagegevens van video’s, afbeeldingen of documenten te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)
Zo controleer je de metadata van een foto, video of document
1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren.
3. Klik op Openen.
4. Controleer de informatie op het rechterzijpaneel. Als de inhoud door AI wordt gegenereerd, moet deze worden opgenomen in het gedeelte met de samenvatting van de inhoud.
Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video ‘gegenereerd is door OpenAI’, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.
Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je een niet-Sora-video hebt, bevat deze mogelijk niet de benodigde signalen in de metadata zodat de tool kan bepalen of de video al dan niet door AI is gegenereerd. AI-video’s die met Midjourney zijn gemaakt, worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is het onwaarschijnlijk dat de tool deze als AI zou markeren.
De verificatietool van het Content Authenticity Initiative gaf correct aan dat de video die ik met Sora maakte, door AI was gemaakt, samen met de datum en tijd waarop ik deze had gemaakt.
Zoek naar andere AI-labels en voeg uw eigen labels toe
Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft intern systeem om AI-inhoud te helpen markeren en als zodanig te labelen. Het systeem is niet perfect, maar je kunt duidelijk de labels zien van berichten die zijn getagd. TikTok En YouTube heeft een soortgelijk beleid voor het labelen van AI-inhoud.
De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een eenvoudig eerbetoon of onthulling in uw tekst kan iedereen helpen begrijpen hoe iets is gemaakt.
Terwijl je door Sora bladert, weet je dat niets echt is. Zodra u echter de app verlaat en een door AI gegenereerde video deelt, is het onze collectieve verantwoordelijkheid om bekend te maken hoe de video is gemaakt. Terwijl AI-modellen zoals Sora de grenzen tussen realiteit en AI blijven vervagen, moeten we allemaal duidelijk weten of iets echt is of AI.
Het allerbelangrijkste: blijf alert
Er bestaat geen eenvoudige methode om in één oogopslag nauwkeurig te bepalen of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt opgelicht, is door niet automatisch alles te geloven wat u online ziet. Volg je instinct, en als iets niet echt voelt, is het dat waarschijnlijk wel. In deze met AI gevulde en ongekende tijden is je beste verdediging het nauwkeurig bekijken van de video’s die je bekijkt. Kijk niet alleen maar en scroll zonder na te denken. Controleer op gebroken tekst, ontbrekende objecten en bewegingen die in strijd zijn met de natuurkunde. En geef jezelf geen verwijten als je er af en toe in trapt. Zelfs de deskundigen hebben ongelijk.
(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI en beschuldigd van het schenden van de auteursrechten van Ziff Davis op de training en werking van zijn AI-systeem.)


