KI Deepfake se enfrenta con métodos astronómicos descubiertos

KI Deepfake se enfrenta con métodos astronómicos descubiertos
Los investigadores recurren a las técnicas de la astronomía a la computadora generada -s que puede parecer idéntico a las fotos reales a primera vista.
Al analizar imágenes de caras que normalmente se usan para investigar galaxias distantes, los astrónomos pueden medir cómo los ojos de una persona reflejan la luz, lo que puede indicar signos de manipulación de imágenes.
"No es una panacea porque tenemos resultados falsos positivos y falsos negativos", dice Kevin Pimbabl, director del Centro de Ciencia de Datos, Inteligencia Artificial y Modelado en la Universidad de Hull, Reino Unido. Presentó una investigación en la reunión nacional de astronomía de la Royal Astronomical Society el 15 de julio. "Pero esta investigación ofrece un método potencial de un paso adelante importante para posiblemente agregar a las pruebas que se pueden usar para averiguar si una imagen es real o falsa".
fotos expresadas
Promociona en inteligencia artificial (AI) hace que sea cada vez más difícil marcar la diferencia entre imágenes reales, videos y audio y para ser reconocido por algoritmos . Los defectos profundos reemplazan las características de una persona o el área circundante con otros y pueden hacer que parezca que las personas han dicho o hecho cosas que no han hecho. Las autoridades advierten que esta tecnología militariza y difunde la información errónea, El trabajo que aún no se ha publicado formó la base de la tesis de maestría por Adejumoke Owolabi. Owolabi, un científico de datos de la Universidad de Hull, Reino Unido, se mudó a imágenes reales de Flickrfaces. Posteriormente, se creó caras falsas con un generador de imágenes. Fotos de galaxias.
Al comparar los reflejos en los ojos de una persona, Owolabi pudo predecir correctamente aproximadamente el 70% del tiempo si la imagen era falsa. En última instancia, los investigadores encontraron que el índice Gini era mejor que el sistema CAS para predecir si se manipulaba una imagen. Brant Robertson, astrofísico de la Universidad de California, Santa Cruz, da la bienvenida a la investigación. "Sin embargo, si puede calcular un valor que cuantifica cuán realista puede aparecer una imagen de FakeFake, también puede entrenar el modelo AI, para crear foakes profundos aún mejores al optimizar este valor", advierte. Zhiwu Huang, investigador de IA en la Universidad de Southampton, Reino Unido, dice que su propia investigación no ha identificado ningún patrón de luz inconsistente a los ojos de las imágenes de Deepfake. Pero "Si bien la técnica específica de usar reflejos inconsistentes en la esquina del ojo puede no ser ampliamente utilizada, tales técnicas podrían ser útiles para analizar anomalías sutiles en la iluminación, las sombras y los reflejos en diferentes partes de una imagen", dice. "El reconocimiento de las inconsistencias en las propiedades físicas de la luz podría complementar los métodos existentes y mejorar la precisión total de las patas más profundas".