gegenereerd door AI video’s worden steeds gebruikelijker dan ooit. Deze video’s hebben de sociale media bestormd, variërend van schattige dierenvideo’s tot geweldige inhoud, en worden met de dag realistischer. Hoewel het een jaar geleden misschien gemakkelijk was om ‘nep’-video’s te herkennen, zijn deze AI-tools geavanceerd genoeg geworden om miljoenen mensen te misleiden.
Nieuwe AI-tools, incl Sora van OpenAI, Google, ik zie er 3 En Nano-banaanheeft de grenzen tussen realiteit en door AI gegenereerde fantasie uitgewist. Nu zwemmen we in de oceaan gegenereerd door AI video’s en deepfakes, van nep-aanbevelingen van beroemdheden tot valse ramp uitzending.
Als je problemen hebt om het echte werk van de AI te scheiden, ben je niet de enige. Hier zijn enkele nuttige tips die je zullen helpen de ruis te doorbreken en de waarheid achter elke AI-geïnspireerde creatie te ontdekken. Voor meer informatie, zie problemen achter AI-video-energiebehoeften en wat we tegen 2026 moeten doen vermijd meer AI-fouten.
Mis onze onpartijdige technische inhoud en laboratoriumbeoordelingen niet. CNET toevoegen als favoriete Google-bron.
Waarom is het moeilijk om Sora AI-video’s te vinden?
Vanuit technisch oogpunt zijn de video’s van Sora indrukwekkend vergeleken met die van concurrenten Halverwege V1 En Google, ik begrijp het 3. Ze hebben een hoge resolutie, gesynchroniseerde audio en verrassende creativiteit. Met Sora’s populairste functie, genaamd ‘cameo’, kun je de gelijkenis van iemand anders gebruiken en deze in vrijwel elke door AI gegenereerde scène invoegen. Het is een indrukwekkend hulpmiddel dat ongelooflijk realistische video’s produceert.
Sora sluit zich aan bij Google Veo 3, een andere technisch indrukwekkende AI-videogenerator. Dit zijn de twee populairste tools, maar zeker niet de enige. Generatieve media zijn in 2025 een aandachtsgebied geworden voor veel grote technologiebedrijven, met beeld- en videomodellen die klaar staan om de voorsprong te bieden die elk bedrijf wenst in de race om de meest geavanceerde AI op alle modaliteiten te ontwikkelen. Googlen en Open AI beide hebben dit jaar vlaggenschipbeeld- en videomodellen uitgebracht in een poging dat mogelijk te maken elkaar verslaan.
Daarom maken veel experts zich zorgen over Sora en andere AI-videogeneratoren. Met de Sora-applicatie kan iedereen gemakkelijk video’s maken met een realistisch uiterlijk waarin de gebruiker te zien is. Publieke figuren en beroemdheden zijn bijzonder kwetsbaar voor deze deepfakes, en vakbonden als SAG-AFTRA hebben OpenAI ertoe aangezet om de technologie verder te versterken. de vangrail. Andere AI-videomakers brengen ook soortgelijke risico’s met zich mee, evenals de bezorgdheid dat zij het internet zullen vullen met AI-inhoud die nergens op slaat en een gevaarlijk instrument zou kunnen worden voor het verspreiden van desinformatie.
Het identificeren van AI-inhoud is een voortdurende uitdaging voor technologiebedrijven, sociale-mediaplatforms en iedereen. Dit betekent echter niet dat er helemaal geen hoop is. Hier zijn enkele dingen waar u op moet letten om te bepalen of een video met Sora is gemaakt.
Zoek naar Sora’s watermerk
Elke video die in de Sora iOS-app wordt gemaakt, bevat een watermerk wanneer u deze downloadt. Het is het witte Sora-logo – het wolkpictogram – dat langs de rand van de video stuitert. Dit is vergelijkbaar met de manier waarop TikTok-video’s een watermerk krijgen. Het watermerken van inhoud is een van de grootste manieren waarop AI-bedrijven ons kunnen helpen door AI gegenereerde inhoud visueel te herkennen. Google’s Tweelingen Nano-banaan Het model voorziet de afbeeldingen automatisch van een watermerk. Watermerken zijn geweldig omdat ze een duidelijk teken zijn dat de inhoud met behulp van AI is gemaakt.
Maar watermerken zijn niet perfect. Ten eerste: als het watermerk statisch is (niet beweegt), kan het gemakkelijk worden bijgesneden. Zelfs om watermerken zoals die van Sora te verwijderen, zijn er apps die speciaal zijn ontworpen om ze te verwijderen, dus watermerken alleen kunnen niet volledig worden vertrouwd. Toen OpenAI-CEO Sam Altman vroeg hieroverhij zei dat de samenleving zich moet aanpassen aan een wereld waarin iedereen een nepvideo over iedereen kan maken. Vóór Sora bestond er natuurlijk geen populaire, toegankelijke en vaardige manier om dergelijke video’s te maken. Maar zijn argument werpt een geldig punt op over de noodzaak om op andere methoden te vertrouwen om de authenticiteit te verifiëren.
Controleer de metagegevens
Ik weet dat je waarschijnlijk denkt dat je op geen enkele manier de metadata van een video kunt controleren om te bepalen of deze origineel is. Ik begrijp waar je vandaan komt. Dit is een extra stap en het kan zijn dat u niet weet waar u moet beginnen. Maar het is een geweldige manier om te bepalen of een video met Sora is gemaakt, en het is gemakkelijker dan je zou denken.
Metadata is een verzameling informatie die automatisch aan inhoud wordt gekoppeld wanneer deze wordt gemaakt. Hierdoor krijg je meer inzicht in hoe de afbeelding of video tot stand is gekomen. Dit kan het type camera omvatten dat is gebruikt om de foto te maken, de locatie, de datum en tijd waarop de video is gemaakt en de bestandsnaam. Elke foto en video heeft metadata, ongeacht of deze door mensen is gemaakt of door AI is gegenereerd. En veel door AI gegenereerde inhoud bevat ook inhoudsreferenties die de AI-oorsprong aangeven.
OpenAI maakt deel uit van de Coalition for Content Origination and Authenticity, wat Sora betekent video’s inbegrepen C2PA-metadata. Je kunt gebruiken verificatie hulpmiddel van het Content Authenticity Initiative om metagegevens van video’s, afbeeldingen of documenten te controleren. Hier is hoe. (Het Content Authenticity Initiative is onderdeel van C2PA.)
Zo controleer je de metadata van een foto, video of document
1. Navigeer naar deze URL: https://verify.contentauthenticity.org/
2. Upload het bestand dat u wilt controleren. Klik vervolgens op Openen.
4. Controleer de informatie op het rechterzijpaneel. Als de inhoud door AI wordt gegenereerd, moet deze worden opgenomen in het gedeelte met de samenvatting van de inhoud.
Wanneer je een Sora-video via deze tool laat zien, wordt aangegeven dat de video ‘gegenereerd is door OpenAI’, en wordt vermeld dat deze door AI is gegenereerd. Alle Sora-video’s moeten deze inloggegevens bevatten waarmee u kunt bevestigen dat de video met Sora is gemaakt.
Deze tool is, zoals alle AI-detectoren, niet perfect. Er zijn veel manieren waarop AI-video’s detectie kunnen voorkomen. Als je een niet-Sora-video hebt, bevat deze mogelijk niet de benodigde signalen in de metadata zodat de tool kan bepalen of de video al dan niet door AI is gegenereerd. AI-video’s die met Midjourney zijn gemaakt, worden bijvoorbeeld niet gemarkeerd, zoals ik tijdens mijn tests heb bevestigd. Zelfs als de video door Sora is gemaakt, maar vervolgens via een app van derden (zoals een app voor het verwijderen van watermerken) is uitgevoerd en opnieuw is gedownload, is het onwaarschijnlijk dat de tool deze als AI zou markeren.
De verificatietool van het Content Authenticity Initiative heeft correct aangegeven dat de video die ik met Sora heb gemaakt door AI is gemaakt, samen met de datum en tijd waarop ik deze heb gemaakt.
Zoek naar andere AI-labels en voeg uw eigen labels toe
Als je een van de sociale mediaplatforms van Meta gebruikt, zoals Instagram of Facebook, krijg je misschien wat hulp om te bepalen of iets AI is. Meta heeft intern systeem om AI-inhoud te helpen markeren en als zodanig te labelen. Het systeem is niet perfect, maar je kunt duidelijk de labels zien van berichten die zijn getagd. TikTok En YouTube heeft een soortgelijk beleid voor het labelen van AI-inhoud.
De enige echt betrouwbare manier om te weten of iets door AI is gegenereerd, is als de maker het openbaar maakt. Veel sociale-mediaplatforms bieden nu instellingen waarmee gebruikers hun berichten kunnen labelen als door AI gegenereerd. Zelfs een eenvoudig eerbetoon of onthulling in uw tekst kan iedereen helpen begrijpen hoe iets is gemaakt.
Terwijl je door Sora bladert, weet je dat niets echt is. Zodra u echter de app verlaat en een door AI gegenereerde video deelt, is het onze collectieve verantwoordelijkheid om bekend te maken hoe de video is gemaakt. Terwijl AI-modellen zoals Sora de grenzen tussen realiteit en AI blijven vervagen, moeten we allemaal duidelijk weten of iets echt is of AI.
Het allerbelangrijkste: blijf alert
Er bestaat geen eenvoudige methode om in één oogopslag nauwkeurig te bepalen of een video echt is of AI. Het beste wat u kunt doen om te voorkomen dat u wordt opgelicht, is door niet automatisch alles te geloven wat u online ziet. Volg je instinct, en als iets niet echt voelt, is het dat waarschijnlijk wel. In deze met AI gevulde en ongekende tijden is je beste verdediging het nauwkeurig bekijken van de video’s die je bekijkt. Kijk niet alleen maar en scroll zonder na te denken. Controleer op gebroken tekst, ontbrekende objecten en bewegingen die in strijd zijn met de natuurkunde. En geef jezelf geen verwijten als je er af en toe in trapt. Zelfs de deskundigen hebben ongelijk.
(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen OpenAI en beschuldigd van het schenden van de auteursrechten van Ziff Davis op de training en werking van zijn AI-systeem.)



