(Max-Width) 319px, (min-width: 1023px) 100VW, 767PX"> (Max-Width) 319px, (min-width: 1023px) 100VW, 767PX ">

Onderzoekers vallen terug op technieken van astronomie tot computer gegenereerd -die er op het eerste gezicht identiek uit kunnen zijn voor echte foto's.

Door het analyseren van beelden van gezichten die normaal worden gebruikt om verre sterrenstelsels te onderzoeken, kunnen astronomen meten hoe iemands ogen licht reflecteren, wat kan wijzen op tekenen van beeldmanipulatie.

"Het is geen wondermiddel omdat we vals-positieve en vals-negatieve resultaten hebben", zegt Kevin Pimbabl, directeur van het Centre for Data Science, kunstmatige intelligentie en modellering aan de Universiteit van Hull, VK. Hij presenteerde onderzoek op de National Astronomy Meeting van de Royal Astronomical Society op 15 juli. "Maar dit onderzoek biedt een mogelijke methode van een belangrijke stap voorwaarts om mogelijk toe te voegen aan de tests die kunnen worden gebruikt om erachter te komen of een foto echt of nep is."

uitgedrukt foto's

Promoot in kunstmatige (AI) maakt het steeds moeilijker om het verschil te maken tussen echte foto's, video's en audio en te herkennen worden door algoritmen . Deepfakes vervangen de kenmerken van een persoon of de omgeving door anderen en kunnen het lijken alsof individuen hebben gezegd of gedaan dingen die ze niet hebben gedaan. Autoriteiten waarschuwen dat deze technologie misinformatie militariseert en verspreidt, .

Echte foto's moeten een "consistente fysica" hebben, legt Pimbablet uit, "zodat de reflecties die ze in de linker oogbol zien zeer vergelijkbaar moeten zijn, zo niet noodzakelijkerwijs identiek, met de reflecties in de rechteroogappel". De verschillen zijn subtiel, dus de onderzoekers gebruikten technieken die werden ontwikkeld om licht in astronomische beelden te analyseren.

Het werk dat nog niet is gepubliceerd, vormde de basis voor de masterproef door Adejumoke Owolabi. OWOLABI, een datawetenschapper aan de Universiteit van Hull, VK, verhuisde naar echte foto's van de flickr-fas-hq data- en creëer Nepzichten met een beeldgenerator. Distributie in foto's van sterrenstelsels.  Een reeks duidelijkere en geannoteerde beelden van diepere ogen die inconsistente reflecties in elk oog vertonen.

Door de reflecties in de eyebäuses van een persoon te vergelijken, kon Owolabi ongeveer 70% van de tijd correct voorspellen of het beeld nep was. Uiteindelijk ontdekten de onderzoekers dat de Gini -index beter was dan het CAS -systeem om te voorspellen of een beeld werd gemanipuleerd.

Brant Robertson, astrofysicus aan de Universiteit van Californië, Santa Cruz, verwelkomt onderzoek. "Als u echter een waarde kunt berekenen die kwantificeert hoe realistisch een deepfake -afbeelding kan verschijnen, kunt u ook het AI -model trainen, om nog betere deepfakes te creëren door deze waarde te optimaliseren," waarschuwt hij.

Zhiwu Huang, AI -onderzoeker aan de Universiteit van Southampton, UK, zegt dat zijn eigen onderzoek geen inconsistente lichtpatronen heeft geïdentificeerd in de ogen van Deepfake -beelden. Maar "Hoewel de specifieke techniek van het gebruik van inconsistente reflecties in de ooghoek mogelijk niet veel wordt gebruikt, kunnen dergelijke technieken nuttig zijn om subtiele afwijkingen in verlichting, schaduwen en reflecties in verschillende delen van een afbeelding te analyseren", zegt hij. "De erkenning van inconsistenties in de fysieke eigenschappen van het licht zou bestaande methoden kunnen aanvullen en de totale nauwkeurigheid van diepere poten kunnen verbeteren."