Ki Deepfake silmitsi avastatud astronoomiliste meetoditega

Ki Deepfake silmitsi avastatud astronoomiliste meetoditega
Teadlased langevad tagasi tehnikatele astronoomiast arvutini Deepfake" Pildid -mis võib esmapilgul välja näha tõeliste fotodega.
Analüüsides nägude pilte, mida tavaliselt kasutatakse kaugete galaktikate uurimiseks, saavad astronoomid mõõta, kuidas inimese silmad valgust peegeldavad, mis võib näidata pildi manipuleerimise tunnuseid.
"See ei ole imerohi, kuna meil on valepositiivseid ja vale-negatiivseid tulemusi," ütleb Kevin Pimbabl, andmeteaduse, tehisintellekti ja modelleerimise keskuse direktor Suurbritannias Hulli ülikoolis. Ta esitas teadusuuringuid kuningliku astronoomiaühingu riiklikul astronoomiakoosolekul 15. juulil. "Kuid see uurimistöö pakub potentsiaalset meetodit olulise sammu jaoks, et lisada testidele, mida saab kasutada, et teada saada, kas pilt on tõeline või võlts."
väljendatud fotod
reklaamib tehisintellektis (AI) muudab reaalsete piltide, videote ja heli ja heli ja , et seda tuvastada algoritmide abil . Deepfakes asendab inimese või selle lähiümbruse omadusi teistega ja võivad muuta sellised, nagu inimesed on öelnud või tegid asju, mida nad pole teinud. Ametivõimud hoiatavad, et see tehnoloogia militariseerub ja levitab väärinformatsiooni, näiteks valimiste ajal .
Päris fotodel peaks olema "järjepidev füüsika", selgitab Pimbablet ", nii et peegeldused, mida nad vasakul silmamunas näevad, peaksid olema väga sarnased, kui mitte tingimata identsed parema silma õuna peegeldustega". Erinevused on peened, seetõttu kasutasid teadlased tehnikaid, mis töötati välja astronoomiliste piltide valguse analüüsimiseks.
Adejumoke Owolabi magistritöö aluseks on töö, mida pole veel avaldatud. Suurbritannia Hulli ülikooli andmeteadlane Owolabi kolis reaalseteks piltideks aadressilt https://github.com/nvlabs/ffhq-dataset "Data-Track =" klõpsake "data-label =" https://github.com/nvlabs/ffhq-dataset "ja tekst Link". Loodud näo generaatoriga. galaktikaid.
Võrreldes inimese silmade silmade peegeldusi, suutis Owolabi õigesti ennustada umbes 70% ajast, kas pilt oli võlts. Lõppkokkuvõttes leidsid teadlased, et Gini indeks oli parem kui CAS -süsteem, et ennustada, kas pilti manipuleeriti. Brant Robertson, Santa Cruzi California ülikooli astrofüüsik, tervitab teadusuuringuid. "Kui aga saate arvutada väärtuse, mis kvantifitseerib, kui realistlikult võib ilmneda pilt, saate koolitada ka AI -mudelit, et luua veelgi parem Deepfakes, optimeerides seda väärtust," hoiatab ta. Zhiwu Huang ütleb, et tema enda uurimistöö ei ole Deepfake'i piltide silmis tuvastanud ebajärjekindlaid valgust. Kuid "kuigi silmanurgas ebajärjekindlate peegelduste kasutamise spetsiifilist tehnikat ei pruugi laialdaselt kasutada, võivad sellised tehnikad olla abiks valgustuse, varjude ja peegelduste peent anomaalia analüüsimisel pildi erinevates osades," ütleb ta. "Valguse füüsiliste omaduste vastuolude äratundmine võib täiendada olemasolevaid meetodeid ja parandada sügavamate käppade täielikku täpsust."