I ricercatori ricadono su tecniche dall'astronomia al computer generato -CHERE CHE CHE ABBIAMO SCOPRA ALLE FOTO REALI A PRIMA GLIANCE.

Analizzando le immagini di facce normalmente utilizzate per studiare galassie distanti, gli astronomi possono misurare il modo in cui gli occhi di una persona riflettono la luce, che può indicare segni di manipolazione dell'immagine.

"Non è una panacea perché abbiamo risultati falsi positivi e falsi negativi", afferma Kevin Pimbabl, direttore del Center for Data Science, Artificial Intelligence e Modeling presso l'Università di Hull, Regno Unito. Ha presentato ricerche alla riunione nazionale di astronomia della Royal Astronomical Society il 15 luglio. "Ma questa ricerca offre un potenziale metodo di un importante passo avanti per aggiungere eventualmente ai test che possono essere utilizzati per scoprire se un'immagine è reale o falsa."

foto espresse

Promuovere nell'intelligenza artificiale (AI) rende sempre più difficile fare la differenza tra immagini reali, video e audio e essere riconosciuto dagli algoritmi . DeepFakes Sostituisci le caratteristiche di una persona o dell'area circostante con gli altri e possono far sembrare che gli individui abbiano detto o fatto cose che non hanno fatto. Le autorità avvertono che questa tecnologia militarizza e di diffondere disinformazione, .

Le foto reali dovrebbero avere una "fisica coerente", spiega Pimbablet ", in modo che i riflessi che vedono nel bulbo oculare sinistro dovrebbero essere molto simili, se non necessariamente identici, ai riflessi nella mela dell'occhio destro". Le differenze sono sottili, quindi i ricercatori hanno utilizzato tecniche sviluppate per analizzare la luce nelle immagini astronomiche.

L'opera che non è stata ancora pubblicata ha costituito la base per la tesi del maestro di Adejumoke Owolabi. Owolabi, a data scientist at the University of Hull, UK, moved into real pictures from the Flickr-Faces-HQ Dataset and created fake Facce con un generatore di immagini. di galassie  Una serie di immagini più chiare e annotate di occhi più profondi che mostrano riflessi incoerenti in ogni occhio.

confrontando i riflessi negli occhi di una persona, Owolabi è stato in grado di prevedere correttamente circa il 70% delle volte se l'immagine fosse falsa. Alla fine, i ricercatori hanno scoperto che l'indice Gini era migliore del sistema CAS per prevedere se un'immagine fosse manipolata.

Brant Robertson, astrofisico presso l'Università della California, Santa Cruz, accoglie la ricerca. "Tuttavia, se puoi calcolare un valore che quantifica realisticamente un'immagine di DeepFake, puoi anche formare il modello AI, per creare DeepFakes ancora migliori ottimizzando questo valore", avverte.

Zhiwu Huang, ricercatore di AI dell'Università di Southampton, nel Regno Unito, afferma che la sua ricerca non ha identificato alcun modello di luce incoerente agli occhi delle immagini di Deepfake. Ma "Mentre la tecnica specifica dell'uso di riflessi incoerenti nell'angolo oculare potrebbe non essere ampiamente utilizzata, tali tecniche potrebbero essere utili per analizzare sottili anomalie in illuminazione, ombre e riflessi in diverse parti di un'immagine", afferma. "Il riconoscimento di incoerenze nelle proprietà fisiche della luce potrebbe integrare i metodi esistenti e migliorare l'accuratezza totale delle zampe più profonde".