Ki Deepfake enfrenta com métodos astronômicos descobertos

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Aprenda como os astrônomos usam técnicas para expor imagens enganosamente reais de DeepFake. Este artigo revela como as reflexões nos olhos da luz podem indicar manipulação de imagem. Resultados importantes para o reconhecimento de imagens falsas! (Symbolbild/natur.wiki)

Ki Deepfake enfrenta com métodos astronômicos descobertos

> -Qual pode parecer idêntico às fotos reais à primeira vista.

Ao analisar imagens de rostos que normalmente são usados ​​para investigar galáxias distantes, os astrônomos podem medir como os olhos de uma pessoa refletem a luz, o que pode indicar sinais de manipulação da imagem.

"Não é uma panacéia porque temos resultados falsos positivos e falsos negativos", diz Kevin Pimbabl, diretor do Centro de Ciência de Dados, Inteligência Artificial e Modelagem da Universidade de Hull, Reino Unido. Ele apresentou pesquisas na reunião nacional de astronomia da Royal Astronomical Society em 15 de julho. "Mas esta pesquisa oferece um método potencial de um passo importante para a possibilidade de aumentar os testes que podem ser usados ​​para descobrir se uma imagem é real ou falsa".

Fotos expressas

Promove na inteligência artificial (AI) torna cada vez mais difícil fazer a diferença entre fotos reais, vídeos e áudio e a ser reconhecido por algoritmos . DeepFakes substitui as características de uma pessoa ou da área circundante com outras pessoas e pode fazer parecer que as pessoas disseram ou fizeram coisas que não fizeram. Authorities warn that this technology militarizes and to spread misinformation, For example Durante as eleições .

Fotos reais devem ter uma "física consistente", explica Pimbablet ", para que as reflexões que eles veem no globo ocular esquerdo devem ser muito semelhantes, se não necessariamente idênticas, às reflexões na maçã do olho direito". As diferenças são sutis, portanto os pesquisadores usaram técnicas desenvolvidas para analisar a luz em imagens astronômicas.

O trabalho que ainda não foi publicado formou a base para a tese de mestrado por Adejumoke Owolabi. Owolabi, a data scientist at the University of Hull, UK, moved into real pictures from the Flickr-Faces-HQ Dataset and Criados Faces falsos com um gerador de imagem. Em fotos de galáxias  Uma série de imagens mais claras e anotadas de olhos mais profundos que mostram reflexões inconsistentes em todos os olhos.

Comparando as reflexões nos olhos de uma pessoa, Owolabi conseguiu prever corretamente cerca de 70% das vezes se a imagem era falsa. Por fim, os pesquisadores descobriram que o índice Gini era melhor que o sistema CAS para prever se uma imagem foi manipulada.

Brant Robertson, astrofísico da Universidade da Califórnia, Santa Cruz, recebe pesquisas. "No entanto, se você puder calcular um valor que quantifica quão realisticamente uma imagem do DeepFake pode aparecer, você também pode treinar o modelo de IA, para criar efeitos deep ainda melhores, otimizando esse valor", alerta ele.

Zhiwu Huang, pesquisador de IA da Universidade de Southampton, Reino Unido, diz que sua própria pesquisa não identificou padrões de luz inconsistentes nos olhos das imagens de Deepfake. Mas "embora a técnica específica de usar reflexões inconsistentes no canto dos olhos possa não ser amplamente utilizada, essas técnicas podem ser úteis para analisar anomalias sutis na iluminação, sombras e reflexões em diferentes partes de uma imagem", diz ele. "O reconhecimento de inconsistências nas propriedades físicas da luz pode complementar os métodos existentes e melhorar a precisão total de patas mais profundas".