Ki Deepfake kasvot, joilla on tähtitieteelliset menetelmät

Ki Deepfake kasvot, joilla on tähtitieteelliset menetelmät
Tutkijat palautuvat tekniikoista tähtitieteestä tietokoneen luotuun -joka voi näyttää ensi silmäyksellä identtiset oikeat valokuvat.
Analysoimalla kasvojen kuvia, joita yleensä käytetään etäisten galaksien tutkimiseen, tähtitieteilijät voivat mitata kuinka ihmisen silmät heijastavat valoa, mikä voi osoittaa kuvan manipuloinnin merkkejä.
"Se ei ole ihmelääke, koska meillä on vääriä positiivisia ja vääriä negatiivisia tuloksia", sanoo Kevin Pimbabl, tietotekniikan, tekoälyn ja mallin keskuksen johtaja Hullin yliopistossa, Iso-Britannia. Hän esitteli tutkimusta kuninkaallisen tähtitieteellisen seuran kansallisessa tähtitieteen kokouksessa 15. heinäkuuta. "Mutta tämä tutkimus tarjoaa potentiaalisen menetelmän tärkeästä askeleen eteenpäin, jotta voidaan mahdollisesti lisätä testeihin, joita voidaan käyttää selvittämään, onko kuva todellinen vai väärennös."
ilmaistut valokuvat
edistää keinotekoisessa älykkyydessä (AI) vaikeuttavat eroa todellisten kuvien, videoiden ja äänen ja Algoritmien tunnistaminen . Deepfakes korvaa ihmisen tai ympäröivän alueen ominaisuudet muilla ja voi saada sen näyttämään siltä, että ihmiset ovat sanoneet tai tekivät asioita, joita he eivät ole tehneet. Viranomaiset varoittavat, että tämä tekniikka militarisoi ja levittää väärää tietoa, .
Oikeissa valokuvissa tulisi olla "johdonmukainen fysiikka", selittää Pimbablet ", jotta vasemman silmämunan heijastumien tulisi olla hyvin samankaltaisia, ellei välttämättä identtisiä, oikean silmän omenan heijastuksiin". Erot ovat hienovaraisia, joten tutkijat käyttivät tekniikoita, jotka kehitettiin analysoimaan valoa tähtitieteellisissä kuvissa. Adejumoke Owolabin teos, jota ei ole vielä julkaistu, muodostivat perustan. Owolabi, Iso-Britannian Hull-yliopiston tietotekniikka, siirtyi todellisiin kuviin
Vertaamalla henkilön silmävakuuden heijastuksia, Owolabi pystyi ennustamaan oikein noin 70% ajasta, onko kuva väärennös. Viime kädessä tutkijat havaitsivat, että Gini -indeksi oli parempi kuin CAS -järjestelmä ennustaakseen, onko kuvaa manipuloida. Brant Robertson, Santa Cruzin Kalifornian yliopiston astrofysiikka, toivottaa tutkimuksen tervetulleeksi. "Jos pystyt kuitenkin laskemaan arvon, joka kvantifioi kuinka realistisesti syvän fake -kuva voi ilmestyä, voit myös kouluttaa AI -mallin, luodaksesi vielä parempia syviäfakkeja optimoimalla tämä arvo", hän varoittaa. Zhiwu Huang, Southamptonin yliopiston AI -tutkija, Ison -Britannian, sanoo, että hänen omassa tutkimuksessaan ei ole tunnistettu epäjohdonmukaisia valokuvioita Deepfaken kuvien silmissä. Mutta "vaikka spesifistä tekniikkaa epäjohdonmukaisten heijastusten käytöstä silmäkulmassa ei välttämättä käytetä laajasti, sellaisia tekniikoita voisi olla hyödyllisiä valaistuksen, varjojen ja heijastuksen hienovaraisten poikkeavuuksien analysoinnissa kuvan eri osissa", hän sanoo. "Valon fysikaalisten ominaisuuksien epäjohdonmukaisuuksien tunnistaminen voisi täydentää olemassa olevia menetelmiä ja parantaa syvempien tassut kokonaistarkkuutta."