Ki DeepFake” twarzy z odkrytymi metodami astronomicznymi

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Dowiedz się, w jaki sposób astronomowie wykorzystują techniki, aby narażać zwodniczo prawdziwe obrazy głębokich. Ten artykuł pokazuje, w jaki sposób odbicia w oczach światła mogą wskazywać na manipulację obrazem. Ważne ustalenia dotyczące rozpoznawania fałszywych obrazów! (Symbolbild/natur.wiki)

Ki DeepFake” twarzy z odkrytymi metodami astronomicznymi

<źródło type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02364-y/d41586-02364-r_27361136.jpg?as=BEBP 767W, https://media.nature.com/lw319/magazine-assets/d41586-02364-y/d41586-02364-y_27361136.jpg?as=WEBP 319W „SOZSE =” (Max-Width) 319px, (MIN-WIDTH: 1023PX) 100VW, 767px.
Badacze powracają do technik od astronomii do komputera generowanego do rozpoznania przez algorytmy . Deepokakes zastępuje cechy osoby lub okolic innej i mogą sprawić, że wyglądają, jakby ludzie mówili lub zrobili rzeczy, których nie zrobili. Władze ostrzegają, że ta technologia militaryzuje i rozpowszechnia dezinformację, .

Prawdziwe zdjęcia powinny mieć „spójną fizykę”, wyjaśnia Pimbablet, „aby odbicia, które widzą w lewej gałce ocznej, powinny być bardzo podobne, jeśli niekoniecznie identyczne, z odbiciami w Apple prawego oka”. Różnice są subtelne, więc naukowcy wykorzystali techniki opracowane do analizy światła na obrazach astronomicznych.

Praca, która nie została jeszcze opublikowana, stanowiła podstawę pracy magisterskiej przez Adejumoke Owolabi. OWOLABI, naukowca danych z University of Hull w Wielkiej Brytanii, przeniósł się do prawdziwych zdjęć z flickr-flace-faset Następnie utworzył się z generatorem obrazu. na zdjęciach galaktyk

<źródło type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02364-y/d41586-02364-r_27361138.jpg?as=BEBP 767W, https://media.nature.com/lw319/magazine-assets/d41586-02364-y/d41586-02364-y_273611138.jpg?as=WEBP 319W „SUZES =” (Max-Width: 319px) 319px, (Min-Width: 1023px) 100V, 100v, 100v, 100v, 100V, 100V, 100V, 100vw, 100vw, 100vw, 767px "> Porównując odbicia w burzach oczu, Owolabi był w stanie poprawnie przewidzieć około 70% czasu, czy obraz był fałszywy. Ostatecznie naukowcy odkryli, że indeks Gini był lepszy niż system CAS, aby przewidzieć, czy obraz został manipulowany.

Brant Robertson, astrofizyk z University of California, Santa Cruz, wita badania. „Jeśli jednak możesz obliczyć wartość, która kwantyfikuje, jak realistycznie może się pojawić obraz głębokiego przekazania, możesz również wyszkolić model AI, aby stworzyć jeszcze lepsze głębokie szafki, optymalizując tę ​​wartość” - ostrzega.

Zhiwu Huang, badacz AI z University of Southampton w Wielkiej Brytanii, mówi, że jego własne badania nie zidentyfikowały żadnych niespójnych wzorców światła w oczach głębokich obrazów. Ale „Chociaż specyficzna technika stosowania niespójnych odbicia w rogu oczu może nie być powszechnie stosowana, takie techniki mogą być pomocne w analizie subtelnych anomalii w oświetleniu, cieniu i odbiciach w różnych częściach obrazu” - mówi. „Rozpoznanie niespójności we właściwościach fizycznych światła może uzupełnić istniejące metody i poprawić całkowitą dokładność głębszych łap”.