Zbog razvoja tehnologije sve je teže prepoznati deep fake videozapise od stvarnih
Uz lažne vijesti i manipulirane fotografije deep fake je još jedna vrsta manipulacija i širenja dezinformacija. Pojam deep fake je složenica od pojmova deep learning (duboko učenje) i fake (lažno, ono što nije originalno, nije autentično), a odnosi se na videozapise stvorene uz pomoć umjetne inteligencije. U njima stvarni ljudi govore nešto što nisu rekli.
Primjer takvih videozapisa je profila deeptomcruise na TikToku. Netko je ove deep fake video zapise koji koriste lik čuvenog glumca Toma Cruisa napravio radi zabave, ali deep fake videozapisi ne rade se samo radi zabave. Oni su moćno oružje za različite vrste prevara, za ucjene ili manipuliranje mišljenjem ljudi, npr. uoči izbora.
Kako prepoznati deep fake?
Deep fake zapisi počeli su se pojavljivati od 2017. Prvi put su se takve lažni videozapisi objavljeni na Redditu. Bilo su to pornografski sadržaji u kojima su iskorištena lica poznatih osoba. Tvorci tih sadržaja, između ostalih, iskoristili su i lica čuvene glumice Scarlett Johansson i pjevačice Taylor Swift. Tehnologija omogućava kreiranje slike, ali i glasa gotovo istovjetnog stvarnoj osobi. Takvu manipulaciju glasom iskoristili su kriminalci koji su u ožujku 2019. obmanuli šefa jedne njemačke energetske kompanije da uplati gotovo 200.000 funti na račun u Mađarskoj. On je to kako piše portal Index učinio jer je to telefonom tražila osoba koja je zvučala kao njegov generalni direktor. Ustvari to je bio glas napravljen pomoću deep fake tehnologije. No, ova se tehnologija može iskoristiti i u pozitivne svrhe. Jedan primjer je generiranje glasa glumca Val Kilmera. On je izgubio glas zbog raka grkljana, ali je za potrebe filma Top Gun: Maverick pomoću umjetne inteligencije “proizveden” njegov glas. U muzeju Salvadora Dalija u Floridi deep fake tehnologiju iskoristili su da bi “uskrsnuli” slavnog slikara. Zato u tom muzeju Dali sam predstavlja svoja djela, s njim se može razgovarati pa i napraviti selfi.
Od 2017. tehnologija za izradu deep fake videozapisa znatno je napredovala pa je one koje rade profesionalci sve teže razlikovati od stvarnih videozapisa. U početku su algoritmi imali problema s treptanjem očima, ali već su i to svladali. Ipak u videozapisima lošije kvalitete pokreti očiju i dalje mogu izgledati neprirodno. Deep fake videozapise ponekad se može prepoznati i po pokretima usnica jer se sasvim ne poklapaju s izgovorenim riječima. Signal da se radi o lažnom videozapisu može biti zvučni zapis lošije kvalitete, neprirodna boja kože, čudan položaj glave u odnosu na tijelo, nepravilna refleksija svjetla ne predmetima ili nakitu. Najčešće su nepravilnosti na predjelu vrata kad je glava slavne osobe “zalijepljena” za drugo tijelo. No, za takve analize treba vremena, ali pronašli smo jedan koristan savjet za deep fake vidozapise kojima je cilj iznuđivanje novca korištenjem lika šefa ili člana obitelji. Za takve slučajeve dobro je osmisliti tajnu riječi ili slogan kojom će se dokazati realnost situacije.
Da je u spomenutoj njemačkoj kompaniji postojalo pravilo oko takve tajne riječi, tvrtka vjerojatno ne bi ostala bez 200.000 eura. /Iva Beloša, 8. b/