KI Deepfake se enfrenta con métodos astronómicos descubiertos

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Aprenda cómo los astrónomos usan técnicas para exponer imágenes de defake engañosamente reales. Este artículo revela cómo las reflexiones en los ojos de la luz pueden indicar la manipulación de la imagen. ¡Hallazgos importantes para el reconocimiento de imágenes falsas! (Symbolbild/natur.wiki)

KI Deepfake se enfrenta con métodos astronómicos descubiertos

Los investigadores recurren a las técnicas de la astronomía a la computadora generada -s que puede parecer idéntico a las fotos reales a primera vista.

Al analizar imágenes de caras que normalmente se usan para investigar galaxias distantes, los astrónomos pueden medir cómo los ojos de una persona reflejan la luz, lo que puede indicar signos de manipulación de imágenes.

"No es una panacea porque tenemos resultados falsos positivos y falsos negativos", dice Kevin Pimbabl, director del Centro de Ciencia de Datos, Inteligencia Artificial y Modelado en la Universidad de Hull, Reino Unido. Presentó una investigación en la reunión nacional de astronomía de la Royal Astronomical Society el 15 de julio. "Pero esta investigación ofrece un método potencial de un paso adelante importante para posiblemente agregar a las pruebas que se pueden usar para averiguar si una imagen es real o falsa".

fotos expresadas

Promociona en inteligencia artificial (AI) hace que sea cada vez más difícil marcar la diferencia entre imágenes reales, videos y audio y para ser reconocido por algoritmos . Los defectos profundos reemplazan las características de una persona o el área circundante con otros y pueden hacer que parezca que las personas han dicho o hecho cosas que no han hecho. Las autoridades advierten que esta tecnología militariza y difunde la información errónea,

El trabajo que aún no se ha publicado formó la base de la tesis de maestría por Adejumoke Owolabi. Owolabi, un científico de datos de la Universidad de Hull, Reino Unido, se mudó a imágenes reales de Flickrfaces. Posteriormente, se creó caras falsas con un generador de imágenes. Fotos de galaxias.  Una serie de imágenes más claras y anotadas de ojos más profundos que muestran reflexiones inconsistentes en cada ojo.

Al comparar los reflejos en los ojos de una persona, Owolabi pudo predecir correctamente aproximadamente el 70% del tiempo si la imagen era falsa. En última instancia, los investigadores encontraron que el índice Gini era mejor que el sistema CAS para predecir si se manipulaba una imagen.

Brant Robertson, astrofísico de la Universidad de California, Santa Cruz, da la bienvenida a la investigación. "Sin embargo, si puede calcular un valor que cuantifica cuán realista puede aparecer una imagen de FakeFake, también puede entrenar el modelo AI, para crear foakes profundos aún mejores al optimizar este valor", advierte.

Zhiwu Huang, investigador de IA en la Universidad de Southampton, Reino Unido, dice que su propia investigación no ha identificado ningún patrón de luz inconsistente a los ojos de las imágenes de Deepfake. Pero "Si bien la técnica específica de usar reflejos inconsistentes en la esquina del ojo puede no ser ampliamente utilizada, tales técnicas podrían ser útiles para analizar anomalías sutiles en la iluminación, las sombras y los reflejos en diferentes partes de una imagen", dice. "El reconocimiento de las inconsistencias en las propiedades físicas de la luz podría complementar los métodos existentes y mejorar la precisión total de las patas más profundas".