[{"img":"https:\/\/cdn.startbih.ba\/articles\/2018\/07\/26\/deep.png","thumb":"https:\/\/cdn.startbih.ba\/articles\/2018\/07\/26\/100x73\/deep.png","full":"https:\/\/cdn.startbih.ba\/articles\/2018\/07\/26\/deep.png","size":"645.54","dimensions":{"width":1170,"height":580}}]
Magazin / Start Video

"Deepfakes": Najnovija, još opasnija verzija lažnih vijesti

Slika govori više od 1000 riječi. Upravo zbog te činjenice, na pomolu je nešto još opasnije od lažnih vijesti. 

Zbog napredovanja umjetne inteligencije, sada je moguće vrlo uvjerljivo mapirati bilo koje lice na tijelo druge osobe u videu.

U aprilu je BuzzFeed objavio video-demonstraciju čiji je autor glumac i redatelj Jordan Peele. Korištenjem FakeApp-a, alata koji se upotrebljava u pornografiji i u uloge glumaca postavljaju slavne ličnosti radi veće popularnosti videa, BuzzFeed je uzeo stari videozapis predsjednika Obame i zamijenio Peelevim ustima dok je glumio Obamu. Video ima  snažnu poruku: "Ovo je opasno vrijeme. Moramo krenuti naprijed, moramo biti oprezniji s onim što vjerujemo na internetu".

Pogledajte video, i obratite pažnju na ono što Obama govori.

A tehnologija se brzo razvija. U gornjem videu, Peele je - putem softvera za zamjenu lica - "lutka" za Obamino lice. Ne tako davno, ova vrsta softvera bila je ograničena na prenos vrlo jednostavnih izraza lica i pokreta usta od glumca do lažnog videa. Međutim, u softveru se sada može koristiti vrlo širok raspon pokreta glave, usta i očiju, bez da gledatelj videa primjeti da se radi o "fotomontaži".

U kombinaciji sa lažnim zvukom i lažnim videozapisom, nije teško zamisliti vrlo blisku budućnost u kojoj je "montirane" videozapise vrlo teško prepoznati i razlikovati od pravih. Ili još gore, budućnost u kojoj lažni video predsjednika potiče pobune ili padove na tržištima.

 

Podijelite ovaj članak!