Ki Deepfake se sooča z odkrito astronomsko metodo

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Naučite se, kako astronomi uporabljajo tehnike, da izpostavijo varljive resnične slike Deepfake. Ta članek razkriva, kako lahko odsevi v očeh svetlobe kažejo na manipulacijo s sliko. Pomembne ugotovitve za prepoznavanje ponarejenih slik! (Symbolbild/natur.wiki)

Ki Deepfake se sooča z odkrito astronomsko metodo

researchers fall back on techniques from astronomy to computer generated Deepfake "slike -ki lahko na prvi pogled izgledajo enako pravim fotografijam.

Z analizo slik obrazov, ki se običajno uporabljajo za raziskovanje oddaljenih galaksij, lahko astronomi merijo, kako človekove oči odražajo svetlobo, kar lahko označuje znake manipulacije s sliko.

"To ni panaceja, ker imamo lažno pozitivne in lažno negativne rezultate," pravi Kevin Pimbabl, direktor Centra za znanost, umetno inteligenco in modeliranje na Univerzi v Hullu v Veliki Britaniji. 15. julija je na sestanku Royal Astronomical Society predstavil raziskave na Nacionalnem sestanku astronomije. "Toda ta raziskava ponuja potencialno metodo pomembnega koraka naprej, da lahko dodate teste, ki jih je mogoče uporabiti za ugotovitev, ali je slika resnična ali ponarejena."

izražene fotografije

promovira v umetno inteligenco (AI) vse težje otežuje razliko med resničnimi slikami, videoposnetki in zvokom in prepozna se po algoritmih . Deepfakes nadomeščajo značilnosti osebe ali okolice z drugimi in lahko izgledajo, kot da so posamezniki povedali ali so počeli stvari, ki jih niso storili. Authorities warn that this technology militarizes and to spread misinformation, na primer med volitvami .

Prave fotografije bi morale imeti "dosledno fiziko", pojasnjuje pimbablet, "tako, da bi morali biti odsevi, ki jih vidijo v levi očesni očegi, zelo podobni, če ne nujno enaki, z odsevi v desnem očesu jabolk". Razlike so subtilne, zato so raziskovalci uporabili tehnike, ki so bile razvite za analizo svetlobe v astronomskih slikah.

Delo, ki še ni bilo objavljeno, je postalo osnova za magistrsko nalogo Adejumoke Owolabi. Owolabi, a data scientist at the University of Hull, UK, moved into real pictures from the Flickr-Faces-HQ Dataset in ustvarili ponarejene obraze. Neenakost porazdelitve svetlobe na slikah galaksij  serija jasnejših in označenih slik globljega oči, ki kažejo neskladne odseve v vsakem očesu.

S primerjavo odsevov v očeh človeka je Owolabi lahko približno 70% časa pravilno napovedal, ali je slika ponarejena. Navsezadnje so raziskovalci ugotovili, da je indeks Gini boljši od sistema CAS, da bi napovedal, ali je bila slika manipulirana.

Brant Robertson, astrofizik na kalifornijski univerzi v Santa Cruzu, pozdravlja raziskave. "Če pa lahko izračunate vrednost, ki količinsko opredeljuje, kako realno se lahko pojavi slika Deepfake, lahko tudi trenirate model AI, da ustvarite še boljše globoke površine z optimizacijo te vrednosti," opozarja.

Zhiwu Huang, raziskovalec AI z univerze v Southamptonu v Veliki Britaniji, pravi, da njegove lastne raziskave v očeh Deepfake slik niso opredelile nobenih nedoslednih svetlobnih vzorcev. "Čeprav posebna tehnika uporabe nedoslednih odsevov v očesnem kotu morda ne bi bila široko uporabljena, bi lahko takšne tehnike pomagale analizirati subtilne anomalije pri osvetlitvi, sencah in odsevih v različnih delih slike," pravi. "Prepoznavanje neskladnosti v fizikalnih lastnostih svetlobe bi lahko dopolnilo obstoječe metode in izboljšalo popolno natančnost globljih šape."