Ki DeepFake suočava se s otkrivenim astronomskim metodama

Ki DeepFake suočava se s otkrivenim astronomskim metodama
Istraživači se vraćaju na tehnike od astronomije na računalo generirane DeepFake" Slike -koje na prvi pogled može izgledati identično stvarnim fotografijama.
Analizom slika lica koja se obično koriste za istraživanje udaljenih galaksija, astronomi mogu izmjeriti kako oči osobe odražavaju svjetlost, što može ukazivati na znakove manipulacije slika.
"To nije panaceja jer imamo lažno pozitivne i lažno negativne rezultate", kaže Kevin Pimbabl, direktor Centra za znanost o podacima, umjetnu inteligenciju i modeliranje na Sveučilištu u Hulu u Velikoj Britaniji. Istraživanje je predstavio na Nacionalnom sastanku astronomije Kraljevskog astronomskog društva 15. srpnja. "Ali ovo istraživanje nudi potencijalnu metodu važnog koraka naprijed kako bi se dodalo testovima koji se mogu upotrijebiti za otkrivanje je li slika stvarna ili lažna."
izražene fotografije
promovira umjetnu inteligenciju (AI) otežava napraviti razliku između stvarnih slika, videozapisa i zvuka i koji treba prepoznati po algoritmi . Deepfakes zamjenjuju karakteristike osobe ili okolice s drugima i mogu učiniti da pojedinci rekli ili rade stvari koje nisu učinili. Vlasti upozoravaju da se ova tehnologija militarizira i širi pogrešne informacije, Na primjer tijekom izbora .
Prave fotografije trebale bi imati "dosljednu fiziku", objašnjava Pimbablet, "tako da bi refleksije koje vide u lijevoj očnoj jabučici trebaju biti vrlo slična, ako ne i nužno identična, refleksijama u Appleu desne oči". Razlike su suptilne, pa su istraživači koristili tehnike koje su razvijene za analizu svjetla u astronomskim slikama.
Djelo koje još nije objavljeno činilo je osnovu za magisterijsku tezu Adejumoke Owolabi. Owolabi, znanstvenik s podacima na Sveučilištu u Hulu, Velika Britanija, prešao je u stvarne slike s
Uspoređujući refleksije u očima osobe, Owolabi je uspio ispravno predvidjeti oko 70% vremena je li slika lažna. U konačnici, istraživači su otkrili da je Gini indeks bolji od CAS sustava kako bi predvidio je li slika manipulirana.
Brant Robertson, astrofizičar sa Sveučilišta u Kaliforniji, Santa Cruz, pozdravlja istraživanje. "Međutim, ako možete izračunati vrijednost koja se kvantificira kako se realno može pojaviti duboka slika, možete trenirati i AI model, kako biste stvorili još bolje duboke faze optimiziranjem ove vrijednosti", upozorava on.
Zhiwu Huang, istraživač AI sa Sveučilišta u Southamptonu u Velikoj Britaniji, kaže da njegovo vlastito istraživanje nije identificiralo nikakve nedosljedne obrasce svjetlosti u očima DeepFake slika. No "Iako se specifična tehnika korištenja nedosljednih refleksija u kutu oka možda neće široko koristiti, takve bi tehnike mogle biti korisne za analizu suptilnih anomalija u osvjetljenju, sjeni i refleksija u različitim dijelovima slike", kaže on. "Prepoznavanje nedosljednosti u fizičkim svojstvima svjetlosti moglo bi nadopuniti postojeće metode i poboljšati ukupnu točnost dubljih šapa."