researchers fall back on techniques from astronomy to computer generated Deepfake "Bilder -V som kan se identiska ut på riktiga foton vid första anblicken.

Genom att analysera bilder av ansikten som normalt används för att undersöka avlägsna galaxer kan astronomer mäta hur en persons ögon reflekterar ljus, vilket kan indikera tecken på bildmanipulation.

"Det är inte ett universalmedel eftersom vi har falsk-positiva och falska negativa resultat," säger Kevin Pimbabl, chef för Center for Data Science, Artificial Intelligence and Modeling vid University of Hull, Storbritannien. Han presenterade forskning vid National Astronomy Meeting i Royal Astronomical Society den 15 juli. "Men denna forskning erbjuder en potentiell metod för ett viktigt steg framåt att eventuellt lägga till de tester som kan användas för att ta reda på om en bild är verklig eller falsk."

uttryckte foton

främjar i artificiell intelligens (AI) gör det allt svårare att göra skillnaden mellan riktiga bilder, videor och ljud och Att erkännas av algoritmer . Deepfakes ersätter egenskaperna hos en person eller det omgivande området med andra och kan få det att se ut som individer har sagt eller gjort saker som de inte har gjort. Myndigheterna varnar för att denna teknik militariserar och sprider felinformation, .

Verkliga foton bör ha en "konsekvent fysik", förklarar pimbablet ", så att reflektionerna de ser i vänster ögonglob bör vara mycket lika, om inte nödvändigtvis identiska, till reflektionerna i det högra ögat äpple". Skillnaderna är subtila, så forskarna använde tekniker som utvecklades för att analysera ljus i astronomiska bilder.

Arbetet som ännu inte har publicerats bildade grunden för masterens avhandling av Adejumoke Owolabi. Owolabi, en datavetare vid University of Hull, Storbritannien, flyttade in i riktiga bilder från  en serie tydligare och annoterade bilder av djupare ögon som visar inkonsekventa reflektioner i varje öga.

Genom att jämföra reflektionerna i en persons ögonbäar kunde Owolabi korrekt förutsäga cirka 70% av tiden om bilden var falsk. I slutändan fann forskarna att Gini -indexet var bättre än CAS -systemet för att förutsäga om en bild manipulerades.

Brant Robertson, astrofysiker vid University of California, Santa Cruz, välkomnar forskning. "Men om du kan beräkna ett värde som kvantifierar hur realistiskt en DeepFake -bild kan visas, kan du också träna AI -modellen, för att skapa ännu bättre djupföringar genom att optimera detta värde," varnar han.

Zhiwu Huang, AI -forskare vid University of Southampton, Storbritannien, säger att hans egen forskning inte har identifierat några inkonsekventa ljusmönster i ögonen på DeepFake -bilderna. Men "medan den specifika tekniken för att använda inkonsekventa reflektioner i ögonhörnet kanske inte används i stor utsträckning, kan sådana tekniker vara till hjälp för att analysera subtila avvikelser i belysning, skuggor och reflektioner i olika delar av en bild," säger han. "Erkännandet av inkonsekvenser i de fysiska egenskaperna hos ljus kan komplettera befintliga metoder och förbättra den totala noggrannheten för djupare tassar."