Ki DeepFake saskaras ar atklātām astronomiskām metodēm

Ki DeepFake saskaras ar atklātām astronomiskām metodēm
Pētnieki atgriežas pie metodēm no astronomijas uz datoru ģenerētu -kas no pirmā acu uzmetiena var izskatīties identiski reāliem fotoattēliem.
Analizējot seju attēlus, kurus parasti izmanto tālu galaktiku izpētei, astronomi var izmērīt, kā cilvēka acis atspoguļo gaismu, kas var norādīt uz attēla manipulācijas pazīmēm.
"Tā nav panaceja, jo mums ir viltus pozitīvi un kļūdaini negatīvi rezultāti," saka Kevins Pimbabls, Datu zinātnes, mākslīgā intelekta un modelēšanas centra direktors Hulas Universitātē, Lielbritānijā. Viņš prezentēja pētījumus Karaliskās astronomijas biedrības nacionālajā astronomijas sanāksmē 15. jūlijā. "Bet šis pētījums piedāvā potenciālu svarīgu soli uz priekšu, lai, iespējams, papildinātu testus, kurus var izmantot, lai noskaidrotu, vai attēls ir īsts vai viltots."
izteikti fotoattēli
Veicina mākslīgo intelektu (AI), apgrūtina atšķirību starp reāliem attēliem, video un audio un , kas jāatzīst algoritmos . DeepFakes aizstāj cilvēka vai apkārtējās teritorijas īpašības ar citiem un var likt izskatīties tā, kā indivīdi ir teikuši, vai darījuši lietas, ko viņi nav izdarījuši. Varas iestādes brīdina, ka šī tehnoloģija militarizē un izplatīt dezinformāciju, .
Reālajiem fotoattēliem jābūt "konsekventai fizikai", skaidro Pimbablet, "tā, ka atstarojumiem, ko viņi redz kreisajā acs ābolā, vajadzētu būt ļoti līdzīgām, ja ne obligāti identiskām ar atstarojumiem labās acs ābolā". Atšķirības ir smalkas, tāpēc pētnieki izmantoja metodes, kas tika izstrādātas, lai analizētu gaismu astronomiskos attēlos. Darbs, kas vēl nav publicēts, ir Adejumoke Owolabi maģistra darba pamats. Owolabi, Datu zinātnieks Hallas Universitātē Lielbritānijā, pārcēlās uz reāliem attēliem no Flickr-face-hq- data-hatet Pēc tam izveidotas viltus sejas ar attēlu ģeneratoru. izplatīšana galaktiku attēlos.
Salīdzinot cilvēka atspoguļojumus acīs, Owolabi spēja pareizi paredzēt apmēram 70% laika, vai attēls ir viltots. Galu galā pētnieki atklāja, ka Džini indekss ir labāks nekā CAS sistēma, lai prognozētu, vai attēls ir manipulēts. Brants Robertsons, Kalifornijas Universitātes Santakrusa astrofiziķis, atzinīgi vērtē pētījumus. "Tomēr, ja jūs varat aprēķināt vērtību, kas kvantitatīvi nosaka, cik reāli var parādīties DeepFake attēls, varat arī apmācīt AI modeli, lai izveidotu vēl labākus DeepFakes, optimizējot šo vērtību," viņš brīdina. Zhiwu Huang, AI pētnieks Sauthemptonas Universitātē, Lielbritānijā, saka, ka viņa paša pētījums nav identificējis nekonsekventu gaismas modeļus DeepFake attēlu acīs. Bet "lai arī īpašo neatbilstīgu atstarojumu izmantošanas paņēmienu acu stūrī var netikt plaši izmantotas, šādas metodes varētu būt noderīgas, lai analizētu smalkas anomālijas apgaismojumā, ēnās un pārdomās dažādās attēla daļās," viņš saka. "Neatbilstību atpazīšana gaismas fizikālajās īpašībās varētu papildināt esošās metodes un uzlabot dziļāku ķepu kopējo precizitāti."