Perfekte vals video's word erken deur kunsmatige intelligensie
Perfekte vals video's word erken deur kunsmatige intelligensie

Video: Perfekte vals video's word erken deur kunsmatige intelligensie

Video: Perfekte vals video's word erken deur kunsmatige intelligensie
Video: Parasite Eve Series Retrospective | An Exhaustive History and Review - YouTube 2024, April
Anonim
Die première van die opera oor die vetiging van Litvinenko begin in Engeland
Die première van die opera oor die vetiging van Litvinenko begin in Engeland

'N Jaar gelede het Stanford se Manish Agrawala gehelp om lip-sinchronisasie tegnologie te ontwikkel waarmee videoredakteurs die woorde van sprekers byna onmerkbaar kon verander. Die instrument kan maklik woorde invoeg wat 'n persoon nooit gepraat het nie, selfs nie in die middel van 'n sin nie, of woorde wat hy gesê het, kan verwyder. Alles sal realisties lyk met die blote oog en selfs vir baie rekenaarstelsels.

Hierdie instrument het dit baie makliker gemaak om foute reg te stel sonder om hele tonele weer op te neem, en het ook TV-reekse of films vir verskillende gehore op verskillende plekke aangepas. Maar hierdie tegnologie het ook ontstellende nuwe geleenthede vir valse video's wat moeilik is om te vind geskep, met die duidelike bedoeling om die waarheid te verdraai. Byvoorbeeld, 'n onlangse Republikeinse video het 'n growwer tegniek gebruik vir 'n onderhoud met Joe Biden.

Hierdie somer onthul Agrawala en kollegas van Stanford en UC Berkeley 'n kunsmatige intelligensie-gebaseerde benadering tot lip-sync-tegnologie. Die nuwe program bespeur meer as 80 persent van die vervalsings akkuraat en erken die kleinste afwykings tussen die geluide van mense en die vorm van hul mond.

Maar Agrawala, direkteur van die Stanford Institute for Media Innovation en professor in rekenaarwetenskap by Forest Baskett, wat ook verbonde is aan die Stanford Institute for Human-Centered Artificial Intelligence, waarsku dat daar geen langtermyn-tegniese oplossing vir diep vervalsings is nie.

Hoe valse werk

Daar is wettige redes vir videomanipulasie. Byvoorbeeld, almal wat 'n fiktiewe TV -program, film of advertensie verfilm, kan tyd en geld bespaar deur digitale hulpmiddels te gebruik om foute reg te stel of skrifte aan te pas.

Die probleem ontstaan wanneer hierdie instrumente doelbewus gebruik word om vals inligting te versprei. En baie van die tegnieke is vir die gemiddelde kyker onsigbaar.

Baie diep valse video's maak staat op gesigsruilings, en plaas letterlik die gesig van een persoon op die video van 'n ander persoon. Alhoewel gesigveranderingsgereedskap oortuigend kan wees, is dit relatief kru en laat dit gewoonlik digitale of visuele artefakte agter wat 'n rekenaar kan opspoor.

Aan die ander kant is tegnologieë vir lipsinkronisering minder sigbaar en daarom moeiliker om op te spoor. Hulle manipuleer 'n baie kleiner gedeelte van die beeld en sintetiseer dan lipbewegings wat presies ooreenstem met hoe 'n persoon se mond eintlik sou beweeg as hy of sy sekere woorde spreek. Volgens Agrawal, gegewe genoeg voorbeelde van 'n persoon se beeld en stem, kan 'n vals vervaardiger 'n persoon alles laat sê.

Valse opsporing

Agrawala was bekommerd oor die onetiese gebruik van sulke tegnologie en het saam met Ohad Freed, 'n doktorale student aan Stanford, 'n opsporingsinstrument ontwikkel; Hani Farid, professor aan die Universiteit van Kalifornië, Berkeley School of Information; en Shruti Agarwal, 'n doktorale student in Berkeley.

Die navorsers het eers geëksperimenteer met 'n suiwer handmatige tegniek waarin waarnemers videomateriaal bestudeer het. Dit het goed gewerk, maar in die praktyk was dit arbeidsintensief en tydrowend.

Die navorsers het toe 'n kunsmatige intelligensie-gebaseerde neurale netwerk getoets wat baie vinniger sou wees om dieselfde analise te doen na opleiding op video saam met die voormalige president Barack Obama. Die neurale netwerk het meer as 90 persent van Obama se eie lip-sinchronisasie bespeur, hoewel die akkuraatheid van ander sprekers tot ongeveer 81 persent gedaal het.

'N Ware toets van die waarheid

Die navorsers sê hul benadering is slegs deel van die kat- en muisspel. Namate die vervalsingstegnieke verbeter, laat hulle nog minder sleutels agter.

Uiteindelik, sê Agrawala, is die werklike probleem nie net om vals video's te beveg nie, maar om disinformasie te bestry. Trouens, merk hy op, baie van die verkeerde inligting spruit uit die verdraaiing van die betekenis van wat mense eintlik gesê het.

"Om verkeerde inligting te verminder, moet ons mediageletterdheid verbeter en aanspreeklikheidstelsels ontwikkel," sê hy. "Dit kan wette beteken wat die doelbewuste vervaardiging van verkeerde inligting en die gevolge daarvan verbied, sowel as meganismes om die gevolglike skade uit te skakel, verbied."

Aanbeveel: