Ki DeepFake suočava se s otkrivenim astronomskim metodama

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Naučite kako astronomi koriste tehnike kako bi izloženi varljivo stvarnim DeepFake slikama. Ovaj članak otkriva kako razmišljanja u očima svjetlosti mogu ukazivati ​​na manipulaciju slika. Važni nalazi za prepoznavanje lažnih slika! (Symbolbild/natur.wiki)

Ki DeepFake suočava se s otkrivenim astronomskim metodama

Istraživači se vraćaju na tehnike od astronomije na računalo generirane DeepFake" Slike -koje na prvi pogled može izgledati identično stvarnim fotografijama.

Analizom slika lica koja se obično koriste za istraživanje udaljenih galaksija, astronomi mogu izmjeriti kako oči osobe odražavaju svjetlost, što može ukazivati ​​na znakove manipulacije slika.

"To nije panaceja jer imamo lažno pozitivne i lažno negativne rezultate", kaže Kevin Pimbabl, direktor Centra za znanost o podacima, umjetnu inteligenciju i modeliranje na Sveučilištu u Hulu u Velikoj Britaniji. Istraživanje je predstavio na Nacionalnom sastanku astronomije Kraljevskog astronomskog društva 15. srpnja. "Ali ovo istraživanje nudi potencijalnu metodu važnog koraka naprijed kako bi se dodalo testovima koji se mogu upotrijebiti za otkrivanje je li slika stvarna ili lažna."

izražene fotografije

promovira umjetnu inteligenciju (AI) otežava napraviti razliku između stvarnih slika, videozapisa i zvuka i koji treba prepoznati po algoritmi . Deepfakes zamjenjuju karakteristike osobe ili okolice s drugima i mogu učiniti da pojedinci rekli ili rade stvari koje nisu učinili. Vlasti upozoravaju da se ova tehnologija militarizira i širi pogrešne informacije, Na primjer tijekom izbora .

Prave fotografije trebale bi imati "dosljednu fiziku", objašnjava Pimbablet, "tako da bi refleksije koje vide u lijevoj očnoj jabučici trebaju biti vrlo slična, ako ne i nužno identična, refleksijama u Appleu desne oči". Razlike su suptilne, pa su istraživači koristili tehnike koje su razvijene za analizu svjetla u astronomskim slikama.

Djelo koje još nije objavljeno činilo je osnovu za magisterijsku tezu Adejumoke Owolabi. Owolabi, znanstvenik s podacima na Sveučilištu u Hulu, Velika Britanija, prešao je u stvarne slike s  niz jasnijih i napomena slika dubljih očiju koje pokazuju nedosljedne refleksije u svakom oku.

Uspoređujući refleksije u očima osobe, Owolabi je uspio ispravno predvidjeti oko 70% vremena je li slika lažna. U konačnici, istraživači su otkrili da je Gini indeks bolji od CAS sustava kako bi predvidio je li slika manipulirana.

Brant Robertson, astrofizičar sa Sveučilišta u Kaliforniji, Santa Cruz, pozdravlja istraživanje. "Međutim, ako možete izračunati vrijednost koja se kvantificira kako se realno može pojaviti duboka slika, možete trenirati i AI model, kako biste stvorili još bolje duboke faze optimiziranjem ove vrijednosti", upozorava on.

Zhiwu Huang, istraživač AI sa Sveučilišta u Southamptonu u Velikoj Britaniji, kaže da njegovo vlastito istraživanje nije identificiralo nikakve nedosljedne obrasce svjetlosti u očima DeepFake slika. No "Iako se specifična tehnika korištenja nedosljednih refleksija u kutu oka možda neće široko koristiti, takve bi tehnike mogle biti korisne za analizu suptilnih anomalija u osvjetljenju, sjeni i refleksija u različitim dijelovima slike", kaže on. "Prepoznavanje nedosljednosti u fizičkim svojstvima svjetlosti moglo bi nadopuniti postojeće metode i poboljšati ukupnu točnost dubljih šapa."