Ki Deepfake” fețe cu metode astronomice descoperite

Ki Deepfake” fețe cu metode astronomice descoperite
Cercetătorii revin asupra tehnicilor de la astronomie la computer generat -Ce poate arăta identic cu fotografiile reale la prima vedere.
analizând imagini cu fețe care sunt utilizate în mod normal pentru a investiga galaxii îndepărtate, astronomii pot măsura modul în care ochii unei persoane reflectă lumina, ceea ce poate indica semne de manipulare a imaginii.
"Nu este un panaceu pentru că avem rezultate fals pozitive și fals-negative", spune Kevin Pimbabl, directorul Centrului pentru Știința Datelor, Inteligență Artificială și Modelare la Universitatea din Hull, Marea Britanie. El a prezentat cercetări la reuniunea națională de astronomie a Societății Astronomice Regale pe 15 iulie. „Dar această cercetare oferă o metodă potențială de un pas important înainte pentru a adăuga eventual testele care pot fi utilizate pentru a afla dacă o imagine este reală sau falsă.”
Fotografii exprimate
Promove în inteligența artificială (AI) face din ce în ce mai dificil să se facă diferența între imagini reale, videoclipuri și audio și pentru a fi recunoscut de algoritmi . Deepfakes înlocuiesc caracteristicile unei persoane sau a zonei înconjurătoare cu alții și poate face să pară că indivizii au spus sau au făcut lucruri pe care nu le -au făcut. Autoritățile avertizează că această tehnologie militarizează și pentru a răspândi dezinformarea, pentru Exemplul în timpul alegerilor .
Fotografiile reale ar trebui să aibă o „fizică consistentă”, explică Pimbablet, „astfel încât reflecțiile pe care le văd în globul ocular stâng ar trebui să fie foarte similare, dacă nu neapărat identice, cu reflecțiile din mărul din ochii drepți”. Diferențele sunt subtile, astfel încât cercetătorii au folosit tehnici care au fost dezvoltate pentru a analiza lumina în imaginile astronomice.
Lucrarea care nu a fost încă publicată a constituit baza pentru teza de master de Adejumoke Owolabi. Owolabi, un om de știință de date la Universitatea din Hull, Marea Britanie, s-a mutat în imagini reale de la Flickr-flickr-flick-hq-Datest" Data Track Category = "Body Text Link"> Flickr-faces-hQ "Datet" Categorie de date <"" Fețe false cu un generator de imagini. Distribuție ușoară în imagini cu galaxii
comparând reflecțiile din ochiul unei persoane, Owolabi a fost capabil să prezică corect aproximativ 70% din timp dacă imaginea era falsă. În cele din urmă, cercetătorii au descoperit că indicele Gini a fost mai bun decât sistemul CAS pentru a prezice dacă o imagine a fost manipulată. Brant Robertson, astrofizician la Universitatea din California, Santa Cruz, salută cercetarea. „Cu toate acestea, dacă puteți calcula o valoare care cuantifică cât de realist poate apărea o imagine profundă, puteți antrena și modelul AI, pentru a crea și mai bine Deepfakes prin optimizarea acestei valori”, avertizează el. Zhiwu Huang, cercetător AI la Universitatea din Southampton, Marea Britanie, spune că propriile sale cercetări nu au identificat niciun tipar de lumină inconsistent în ochii imaginilor Deepfake. Dar „în timp ce tehnica specifică de utilizare a reflecțiilor inconsistente în colțul ochilor poate să nu fie utilizată pe scară largă, astfel de tehnici ar putea fi utile pentru a analiza anomalii subtile în iluminare, umbre și reflecții în diferite părți ale unei imagini”, spune el. "Recunoașterea inconsecvențelor în proprietățile fizice ale luminii ar putea completa metodele existente și ar putea îmbunătăți precizia totală a labelor mai profunde."