Ki Deepfake visages aux méthodes astronomiques découvertes

Ki Deepfake visages aux méthodes astronomiques découvertes
En analysant des images de faces qui sont normalement utilisées pour étudier les galaxies lointaines, les astronomes peuvent mesurer comment les yeux d'une personne reflètent la lumière, ce qui peut indiquer des signes de manipulation d'image.
"Ce n'est pas une panacée parce que nous avons des résultats faussement positifs et faux négatifs", explique Kevin Pimbabl, directeur du Center for Data Science, Artificiel Intelligence and Modélisation à l'Université de Hull, Royaume-Uni. Il a présenté des recherches à la réunion nationale de l'astronomie de la Royal Astronomical Society le 15 juillet. "Mais cette recherche offre une méthode potentielle d'une étape importante pour peut-être ajouter aux tests qui peuvent être utilisés pour savoir si une image est réelle ou fausse."
a exprimé des photos
Promose dans l'intelligence artificielle (AI), il est de plus en plus difficile de faire la différence entre de vraies images, vidéos et audio et à reconnaître par les algorithmes . Deepfakes remplace les caractéristiques d'une personne ou des environs avec d'autres et peut le faire ressembler à des individus ou fait des choses qu'ils n'ont pas faites. Les autorités avertissent que cette technologie militarise et répartir la désinformation, .
Les vraies photos devraient avoir une "physique cohérente", explique le pimbablet ", de sorte que les réflexions qu'ils voient dans le globe oculaire gauche doivent être très similaires, sinon nécessairement identiques, aux réflexions dans la pomme à l'œil droit". Les différences sont subtiles, donc les chercheurs ont utilisé des techniques qui ont été développées pour analyser la lumière dans les images astronomiques. Le travail qui n'a pas encore été publié a constitué la base de la thèse du maître par Adejuke Owolabi. Owolabi, un scientifique des données de l'Université de Hull, au Royaume-Uni, a déménagé dans de vraies images à partir de la
En comparant les réflexions dans les yeux des yeux d'une personne, Owolabi a pu prédire correctement environ 70% du temps si l'image était fausse. En fin de compte, les chercheurs ont constaté que l'indice Gini était meilleur que le système CAS pour prédire si une image était manipulée. Brant Robertson, astrophysicien à l'Université de Californie à Santa Cruz, accueille la recherche. "Cependant, si vous pouvez calculer une valeur qui quantifie à quel point une image DeepFake peut apparaître réaliste, vous pouvez également former le modèle d'IA, pour créer des FAKES DEEFFAKES encore meilleurs en optimisant cette valeur", prévient-il. Zhiwu Huang, chercheur de l'IA à l'Université de Southampton, au Royaume-Uni, a déclaré que ses propres recherches n'ont identifié aucun modèle de lumière incohérent aux yeux des images Deepfake. Mais "Bien que la technique spécifique d'utiliser des réflexions incohérentes dans le coin des yeux puisse ne pas être largement utilisée, de telles techniques pourraient être utiles pour analyser des anomalies subtiles dans l'éclairage, les ombres et les réflexions dans différentes parties d'une image", dit-il. "La reconnaissance des incohérences dans les propriétés physiques de la lumière pourrait compléter les méthodes existantes et améliorer la précision totale des pattes plus profondes."