Ki Deepfake arcok csillagászati ​​módszerekkel felfedezett módszerekkel

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Tudja meg, hogy a csillagászok hogyan használják a technikákat a megtévesztően valódi mélyfajta képek feltárására. Ez a cikk feltárja, hogy a fény szemében lévő reflexiók hogyan jelezhetik a kép manipulációját. Fontos eredmények a hamis képek felismeréséhez! (Symbolbild/natur.wiki)

Ki Deepfake arcok csillagászati ​​módszerekkel felfedezett módszerekkel

<ábra class = "ábra">

A kutatók visszatértek a technikákhoz a csillagászattól a számítógépig generált -, amely első pillantásra megegyezik a valódi fotókkal.

Az arcok képeinek elemzésével, amelyeket általában a távoli galaxisok vizsgálatához használnak, a csillagászok megmérhetik, hogy az ember szeme hogyan tükrözi a fényt, ami jelezheti a kép manipulációjának jeleit.

"Ez nem csodaszer, mert hamis pozitív és hamis-negatív eredmények vannak"-mondja Kevin Pimbabl, az Egyesült Királyság Hull Egyetemen a Data Science, Mesterséges Intelligencia és Modellezés igazgatója. Kutatást mutatott be a Királyi Csillagászati ​​Társaság nemzeti csillagászatának július 15 -én. "De ez a kutatás egy fontos előrelépés potenciális módszerét kínálja a tesztekhez, amelyek felhasználhatók annak kiderítésére, hogy egy kép valós vagy hamis -e."

kifejezett fotók

A mesterséges intelligencia (AI) előmozdítása egyre nehezebbé teszi a különbséget a valós képek, videók és audio és a Algoritmusok felismerését . A mélyfestékek másokkal helyettesítik egy személy vagy a környező terület tulajdonságait, és úgy néznek ki, mint az egyének mondták, vagy olyan dolgokat tettek, amelyeket nem tettek. A hatóságok figyelmeztetik, hogy ez a technológia militarizálódik és téves információkat terjeszt, . A

valódi fotóknak "következetes fizikának" kell lenniük, magyarázza a Pimbablet -et, "úgy, hogy a bal szemgolyóban látott reflexióknak nagyon hasonlóak legyenek, ha nem feltétlenül azonosnak kell lenniük a jobb szem alma tükröződéseihez". A különbségek finomak, tehát a kutatók olyan technikákat alkalmaztak, amelyeket a csillagászati ​​képek fényének elemzésére fejlesztettek ki.

A még nem közzétett munka képezte az Adejumoke Owolabi mesterképzési diplomamunkájának alapját. Az Owolabi, az Egyesült Királyság Hull Egyetem adattudósának valódi képeire váltott a "body-link" című részből ">" body-faces "> flickr-faces"> flickr-faces Hamis arcok egy képgenerátorral. A galaxisok képeiben. <ábra class = "ábra">  A mélyebb szemek tisztább és kommentált képeinek sorozata, amelyek minden szemben következetlen reflexiókat mutatnak.

Ha összehasonlította az ember szembesorolásainak gondolatait, Owolabi az idő kb. 70% -ának megfelelően megjósolta, hogy a kép hamis -e. Végül a kutatók azt találták, hogy a Gini -index jobb, mint a CAS rendszer, hogy megjósolja, hogy egy képet manipulálnak -e.

Brant Robertson, a Santa Cruzi Kaliforniai Egyetem asztrofizikusja üdvözli a kutatást. "Ha azonban kiszámít egy olyan értéket, amely számszerűsíti, mennyire reálisan megjelenhet egy mélyfajta kép, akkor kiképezheti az AI modellt is, hogy még jobb mélyfestéket hozzon létre az érték optimalizálásával" - figyelmezteti.

Zhiwu Huang, az Egyesült Királyság Southamptoni Egyetem AI kutatója azt mondja, hogy saját kutatása nem azonosított semmiféle következetlen fénymintát a Deepfake képek szemében. De "bár az inkonzisztens tükröződések használatának specifikus technikája a szem sarkában nem használható széles körben, az ilyen technikák hasznosak lehetnek a finom rendellenességek elemzésében, az árnyékban és a tükröződésben a kép különböző részein" - mondja. "A fény fizikai tulajdonságaiban szereplő következetlenségek felismerése kiegészítheti a meglévő módszereket és javíthatja a mélyebb mancsok teljes pontosságát."