Perfekte falske videoer genkendes af kunstig intelligens
Perfekte falske videoer genkendes af kunstig intelligens

Video: Perfekte falske videoer genkendes af kunstig intelligens

Video: Perfekte falske videoer genkendes af kunstig intelligens
Video: Modern Talking - Atlantis Is Calling (Die Hundertausend-PS-Show 06.09.1986) - YouTube 2024, April
Anonim
Premieren på operaen om fotning af Litvinenko begynder i England
Premieren på operaen om fotning af Litvinenko begynder i England

For et år siden hjalp Stanfords Manish Agrawala med at udvikle læbesynkroniseringsteknologi, der gjorde det muligt for videoredigerere at ændre højttalernes ord næsten umærkeligt. Værktøjet kunne let indsætte ord, som en person aldrig talte, selv midt i en sætning, eller slette ord, som han sagde. Alt ser realistisk ud med det blotte øje og endda for mange computersystemer.

Dette værktøj har gjort det meget lettere at rette fejl uden at genoptage hele scener og har også tilpasset tv-shows eller film til forskellige målgrupper forskellige steder. Men denne teknologi har også skabt foruroligende nye muligheder for svært at finde falske videoer med den klare hensigt at fordreje sandheden. For eksempel brugte en nylig republikansk video en grovere teknik til et interview med Joe Biden.

I sommer afslørede Agrawala og kolleger ved Stanford og UC Berkeley en kunstig intelligensbaseret tilgang til lip-sync-teknologi. Det nye program registrerer nøjagtigt mere end 80 procent af forfalskninger og genkender de mindste uoverensstemmelser mellem menneskers lyde og deres mundform.

Men Agrawala, direktør for Stanford Institute for Media Innovation og professor i datalogi ved Forest Baskett, der også er tilknyttet Stanford Institute for Human-Centered Artificial Intelligence, advarer om, at der ikke er nogen langsigtet teknisk løsning på dybe forfalskninger.

Hvordan forfalskninger fungerer

Der er legitime grunde til videomanipulation. For eksempel kan enhver, der filmer et fiktivt tv -program, film eller reklame, spare tid og penge ved at bruge digitale værktøjer til at rette fejl eller tilpasse scripts.

Problemet opstår, når disse værktøjer bevidst bruges til at sprede falsk information. Og mange af teknikkerne er usynlige for den gennemsnitlige seer.

Mange dybe falske videoer er afhængige af ansigtsswaps og bogstaveligt talt overlejrer en persons ansigt på en anden persons video. Selvom ansigtsskifterværktøjer kan være overbevisende, er de relativt rå og efterlader normalt digitale eller visuelle artefakter, som en computer kan registrere.

På den anden side er lip sync -teknologier mindre synlige og derfor sværere at opdage. De manipulerer en meget mindre del af billedet og syntetiserer derefter læbebevægelser, der matcher præcis, hvordan en persons mund rent faktisk ville bevæge sig, hvis han eller hun talte bestemte ord. Ifølge Agrawal, i betragtning af nok prøver af en persons billede og stemme, kan en falsk producent få en person til at “sige” hvad som helst.

Forfalskningssøgning

Agrawala var bekymret over den uetiske brug af sådan teknologi og arbejdede sammen med Ohad Freed, en ph.d. -studerende ved Stanford, for at udvikle et detektionsværktøj; Hani Farid, professor ved University of California, Berkeley School of Information; og Shruti Agarwal, en doktorand ved Berkeley.

Først eksperimenterede forskerne med en rent manuel teknik, hvor observatører studerede videooptagelser. Det fungerede godt, men i praksis var det arbejdskrævende og tidskrævende.

Forskerne testede derefter et kunstigt intelligensbaseret neuralt netværk, der ville være meget hurtigere at foretage den samme analyse efter træning på video med tidligere præsident Barack Obama. Det neurale netværk opdagede mere end 90 procent af Obamas egen læbesynkronisering, selvom nøjagtigheden for andre højttalere faldt til omkring 81 procent.

En sand test af sandheden

Forskerne siger, at deres tilgang bare er en del af kat- og musespil. Efterhånden som dybe forfalskningsteknikker forbedres, efterlader de endnu færre nøgler.

I sidste ende, siger Agrawala, er det virkelige problem ikke så meget at bekæmpe dybt falske videoer som at bekæmpe desinformation. Faktisk bemærker han, at meget af misinformation opstår ved at fordreje betydningen af, hvad folk rent faktisk sagde.

"For at reducere misinformation skal vi forbedre mediekendskab og udvikle ansvarlighedssystemer," siger han. "Dette kan betyde love, der forbyder bevidst fremstilling af misinformation og konsekvenserne af at overtræde dem, samt mekanismer til at eliminere den deraf følgende skade."

Anbefalede: