Home Nieuws Deepfakes zullen in 2025 drastisch toenemen. Deepfakes zullen steeds moeilijker te detecteren...

Deepfakes zullen in 2025 drastisch toenemen. Deepfakes zullen steeds moeilijker te detecteren zijn

10
0
Deepfakes zullen in 2025 drastisch toenemen. Deepfakes zullen steeds moeilijker te detecteren zijn

In 2025 vals dramatisch verbeterd. AI-het resultaat van gezichten, stemmen en verschijningen van het hele lichaam die echte mensen nabootsen, verbetert in kwaliteit veel verder dan wat veel experts zelfs maar een paar jaar geleden hadden voorspeld. Ze worden ook steeds vaker gebruikt om mensen te misleiden.

In veel alledaagse scenario’s – vooral videogesprekken met een lage resolutie en media die worden gedeeld op sociale-mediaplatforms – is het realisme nu hoog genoeg om niet-expertkijkers voor de gek te houden. In de praktijk zijn synthetische media niet meer te onderscheiden van originele opnames bedoeld voor het lekenpubliek en in sommige gevallen zelfs voor instellingen.

En deze stijging beperkt zich niet tot de kwaliteit. Het aantal deepfakes is explosief toegenomen: cybersecuritybedrijven Diepe slag schat een stijging in van ongeveer 500.000 deepfakes online in 2023 naar ongeveer 8 miljoen in 2025, waarbij de jaarlijkse groei de 900% nadert.

Ik ben een computerwetenschapper onderzoek naar deepfakes en andere synthetische media. Vanuit mijn perspectief zie ik de situatie het zal waarschijnlijk nog erger worden in 2026, wanneer deepfakes synthetische hulpmiddelen worden die in realtime op mensen kunnen reageren.

Bijna iedereen kan nu deepfake-video’s maken.

Dramatische verbetering

Verschillende technische veranderingen liggen ten grondslag aan deze dramatische verbetering. Ten eerste maakt videorealisme een aanzienlijke sprong dankzij modellen voor videocreatie die er speciaal voor zijn ontworpen behoud van temporele consistentie. Deze modellen produceren video’s met een samenhangende beweging, een consistente weergave van de identiteit van mensen en inhoud die van het ene frame naar het andere zinvol is. Het model beschrijft informatie gerelateerd aan de representatie van iemands identiteit uit informatie over beweging, zodat dezelfde beweging kan worden geproduceerd. toegewezen aan een andere identiteitof dezelfde identiteit kan verschillende soorten bewegingen hebben.

Deze modellen produceren stabiele, samenhangende gezichten zonder de flikkerende, kromgetrokken of structurele vervormingen rond de ogen en kaaklijn die ooit betrouwbaar forensisch bewijs waren van deepfakes.

Ten tweede heeft het klonen van stemmen de zogenaamde ‘ononderscheidbaarheidsdrempel’ overschreden. Een paar seconden audio is nu voldoende om een een overtuigende kloon-compleet met natuurlijke intonatie, ritme, nadruk, emotie, pauzes en ademhalingsgeluiden. Deze mogelijkheid heeft grootschalige fraude aangewakkerd. Verschillende grote retailers meldden acceptatie meer dan 1.000 door AI gegenereerde zwendeloproepen per dag. Zijn perceptie was dat de synthetische stemmen die ooit optraden grotendeels verdwenen waren.

Ten derde hebben consumentenapparaten de technische barrières tot bijna nul teruggebracht. Verbeteringen van OpenAI Soera 2 en Googlen Ik zie er 3 en de opstartgolf betekent dat iedereen een idee kan beschrijven, het door grote taalmodellen zoals OpenAI’s ChatGPT of Google’s Gemini kan laten scripten, en produceer binnen enkele minuten gepolijste audiovisuele media. AI-agenten kunnen het hele proces automatiseren. Het vermogen om op grote schaal coherente, verhaallijngedreven deepfakes te produceren is effectief gedemocratiseerd.

De combinatie van een enorme hoeveelheid en een persoonlijkheid die bijna niet te onderscheiden is van een echte mens, creëert iets serieus de uitdaging van het detecteren van deepfakesvooral in een mediaomgeving waar de aandacht van mensen gefragmenteerd is en de inhoud sneller beweegt dan kan worden geverifieerd. Er is in de echte wereld sprake geweest van verlies verkeerde informatie naar gerichte intimidatie En financiële fraude– mogelijk gemaakt door deepfakes die zich verspreidden voordat iemand de tijd had om te beseffen wat er aan de hand was.

AI-onderzoeker Hany Farid legt uit hoe deepfakes werken en hoe goed ze zijn.

De toekomst is realtime

Vooruitkijkend is de richting voor volgend jaar duidelijk: deepfakes evolueren in de richting van realtime synthese die video’s kan produceren die sterk lijken op de nuances van het menselijk uiterlijk, waardoor het voor hen gemakkelijker wordt om detectiesystemen te omzeilen. De grens verschuift van statisch visueel realisme naar temporele en gedragsmatige samenhang: het model live of bijna-live inhoud produceren in plaats van vooraf gerenderde clips.

Identiteitsmodellering wordt nu gecombineerd tot een geïntegreerd systeem dat niet alleen vastlegt hoe iemand eruit ziet, maar ook hoe hij/zij is bewegen, klinken en spreken in verschillende contexten. Het resultaat gaat verder dan ‘dit lijkt op persoon X’, maar ‘dit gedraagt ​​zich in de loop van de tijd als persoon X’. Ik verwacht dat alle deelnemers aan het videogesprek in realtime worden samengevoegd; Op AI gebaseerde interactieve acteurs wier gezichten, stemmen en maniertjes zich onmiddellijk aanpassen aan commando’s; en fraudeurs die responsieve avatars gebruiken in plaats van vaste video’s.

Naarmate deze capaciteiten volwassener worden, zal de perceptiekloof tussen door mensen gemaakte media en inheemse media steeds kleiner worden. De betekenisvolle verdedigingslinie zal wegschuiven van het menselijk oordeel. In plaats daarvan zal het afhangen van bescherming op infrastructuurniveau. Dit omvat veilige bronnen, zoals cryptografisch ondertekende media, en AI-inhoudstools die gebruikmaken van Coalitie voor oorsprong en authenticiteit van inhoud specificatie. Het zal ook afhankelijk zijn van multimodale forensische hulpmiddelen zoals mijn laboratorium Deepfake-o-Meter.

Simpelweg beter kijken naar de pixels is niet langer voldoende.

Siwei Lyu is hoogleraar computerwetenschappen en techniek en directeur van het UB Forensic Media Lab in Universiteit van Buffalo.

Dit artikel is opnieuw gepubliceerd van Gesprek onder een Creative Commons-licentie. Lezen origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in