<Фигура клас = "Фигура"> <източник type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02364-y/d41586-02364-y_27361136.jpg?as=WEBP 767w, https://media.nature.com/lw319/magazine-assets/d41586-02364-y/d41586-02364-y_27361136.jpg?as=WEBP 319W "размери =" (max-width) 319px, (min-width: 1023px) 100vw, 767px ">

researchers fall back on techniques from astronomy to computer generated Deepfake "снимки -Коко може да изглежда идентично с истински снимки на пръв поглед.

Анализирайки изображения на лица, които обикновено се използват за изследване на далечни галактики, астрономите могат да измерват как очите на човек отразяват светлината, което може да показва признаци на манипулация на изображението.

"Това не е панацея, защото имаме фалшиво-положителни и фалшиво отрицателни резултати", казва Кевин Пимбабл, директор на Центъра за наука за данни, изкуствен интелект и моделиране в Университета в Хъл, Великобритания. Той представи изследвания на Националната среща на астрономията на Кралското астрономическо дружество на 15 юли. "Но това изследване предлага потенциален метод на важна стъпка напред, за да евентуално да се добави към тестовете, които могат да бъдат използвани, за да се разбере дали картината е истинска или фалшива."

изразени снимки

Популяризира в изкуствения интелект (AI) затруднява все по-трудно да се направи разликата между реални снимки, видеоклипове и аудио и да бъде разпознат от алгоритмите . Deepfakes заменят характеристиките на човек или околността с други хора и могат да изглеждат така, че хората са казали или са правили неща, които не са правили. Властите предупреждават, че тази технология милитализира и разпространява дезинформация, .

Истинските снимки трябва да имат "последователна физика", обяснява Pimbablet, "така че отраженията, които виждат в лявата очна ябълка, да бъдат много подобни, ако не непременно идентични, с отраженията в дясното око Apple". Разликите са фини, така че изследователите използваха техники, които са разработени за анализ на светлината в астрономически изображения.

Работата, която все още не е публикувана, е основата на магистърската теза от Adejumoke Owolabi. Owolabi, учен по данни от Университета в Хъл, Великобритания, се премести в реални снимки от <източник type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02364-y/d41586-02364-y_27361138.jpg?as=WEBP 767w, https://media.nature.com/lw319/magazine-assets/d41586-02364-Y/D41586-02364-Y_273611138.jpg?as=webp 319W "SIZES =" (Max-Width: 319PX) 319PX, (Min-Width: 1023px) 100VW, 767px ">  поредица от по -ясни и анотирани изображения на по -дълбоки очи, които показват непоследователни отражения във всяко око.

Сравнявайки отраженията в очите на човек, Оволаби успя правилно да прогнозира около 70% от времето дали изображението е фалшиво. В крайна сметка изследователите откриха, че индексът на Джини е по -добър от системата на CAS, за да предскаже дали изображението е манипулирано.

Брант Робъртсън, астрофизик в Калифорнийския университет, Санта Крус, приветства изследванията. "Въпреки това, ако можете да изчислите стойност, която количествено определя колко реалистично може да се появи изображение на Deepfake, можете също да обучите AI модела, за да създадете още по -добри Deepfakes, като оптимизирате тази стойност", предупреждава той.

Zhiwu Huang, изследовател на ИИ от Университета в Саутхемптън, Великобритания, казва, че собствените му изследвания не са идентифицирали никакви непоследователни светлинни модели в очите на изображенията на Deepfake. Но „Докато специфичната техника за използване на непоследователни отражения в ъгъла на очите може да не се използва широко, такива техники могат да бъдат полезни за анализ на фините аномалии в осветлението, сенките и отраженията в различни части на изображението“, казва той. "Разпознаването на несъответствия във физическите свойства на светлината може да допълни съществуващите методи и да подобри общата точност на по -дълбоките лапи."