Forskare använder tekniker från astronomi för att skapa datorgenererade "Deepfake" -bilder att känna igen - vilket vid första anblicken kan se identisk ut på riktiga foton.
Genom att analysera bilder av ansikten som vanligtvis används för att studera avlägsna galaxer kan astronomer mäta hur en persons ögon reflekterar ljus, vilket kan indikera tecken på bildmanipulation.
"Det är inte ett universalmedel eftersom vi har falska positiva och falska negativa," säger Kevin Pimbblet, chef för Center for Data Science, Artificial Intelligence and Modeling vid University of Hull, Storbritannien. Han presenterade forskningen vid Royal Astronomical Society: s nationella astronomimöte den 15 juli. "Men denna forskning erbjuder en potentiell metod, ett viktigt steg framåt, för att potentiellt lägga till testerna som kan användas för att ta reda på om en bild är verklig eller falsk."
Uttryckta bilder
Framsteg inom artificiell intelligens (AI) gör det allt svårare att skilja skillnaden mellan riktiga bilder, videor och ljud de som skapas av algoritmer, att känna igen. Deepfakes ersätter funktioner hos en person eller miljö med andra och kan få det att se ut som om individer har sagt eller gjort saker som de inte gjorde. Myndigheterna varnar för att denna teknik är militariserande och bidrar till spridningen av felinformation, till exempel under val, kan användas.
Verkliga foton borde ha "konsekvent fysik", förklarar Pimbblet, "så reflektionerna du ser i vänster ögonglob bör vara mycket lika, även om det inte nödvändigtvis är identiskt, till reflektionerna i höger ögonglob." Skillnaderna är subtila, så forskarna vände sig till tekniker som utvecklats för att analysera ljus i astronomiska bilder.
Arbetet, som ännu inte har publicerats, utformade grunden för Adejumoke Owolabis masteruppsats. Owolabi, en datavetare vid University of Hull, Storbritannien, skaffade riktiga bilder från Flickr Faces HQ -datasätt och skapade falska ansikten med en bildgenerator. Owolabi analyserade sedan reflektionerna från ljuskällor i ögonen i bilderna med två astronomiska mätningar: CAS -systemet och Gini -indexet. CAS -systemet kvantifierar koncentrationen, asymmetri och jämnhet i ett objekts ljusfördelning. Denna teknik har gjort det möjligt för astronomer, inklusive Pimbblet, att karakterisera ljuset från extragalaktiska stjärnor i årtionden. Gini -indexet mäter ojämlikheten i lätt fördelning i bilder av galaxer.

Genom att jämföra reflektionerna i en persons ögonbollar kunde Owolabi korrekt förutsäga om bilden var falsk cirka 70% av tiden. I slutändan fann forskarna att Gini -indexet var bättre än CAS -systemet för att förutsäga om en bild hade manipulerats.
Brant Robertson, astrofysiker vid University of California, Santa Cruz, välkomnar forskningen. "Men om du kan beräkna ett värde som kvantifierar hur realistisk en DeepFake -bild kan visas, kan du också utbilda AI -modellen för att producera ännu bättre djupfakningar genom att optimera det värdet," varnar han.
Zhiwu Huang, AI -forskare vid University of Southampton, Storbritannien, säger att hans egen forskning inte har identifierat några inkonsekventa ljusmönster i ögonen på DeepFake -bilderna. Men "Även om den specifika tekniken för att använda inkonsekventa reflektioner i ögonbollar kanske inte är allmänt tillämpliga, kan sådana tekniker vara användbara för att analysera subtila avvikelser i belysning, skuggor och reflektioner i olika delar av en bild," säger han. "Att upptäcka inkonsekvenser i de fysiska egenskaperna hos ljus kan komplettera befintliga metoder och förbättra den totala noggrannheten för DeepFake -upptäckt."
