Ki Deepfake står over for astronomiske metoder opdaget

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
Lær, hvordan astronomer bruger teknikker til at udsætte vildledende ægte Deepfake -billeder. Denne artikel afslører, hvordan refleksioner i lysets øjne kan indikere billedmanipulation. Vigtige fund til anerkendelse af falske billeder! (Symbolbild/natur.wiki)

Ki Deepfake står over for astronomiske metoder opdaget

Forskere falder tilbage på teknikker fra astronomi til computergenereret -som kan se identisk ud med rigtige fotos ved første øjekast.

Ved at analysere billeder af ansigter, der normalt bruges til at undersøge fjerne galakser, kan astronomer måle, hvordan en persons øjne reflekterer lys, hvilket kan indikere tegn på billedmanipulation.

"Det er ikke et universalmiddel, fordi vi har falsk-positive og falske negative resultater," siger Kevin Pimbabl, direktør for Center for Data Science, Artificial Intelligence and Modelling på University of Hull, UK. Han præsenterede forskning på det nationale astronomimøde i Royal Astronomical Society den 15. juli. "Men denne forskning tilbyder en potentiel metode til et vigtigt skridt fremad for muligvis at tilføje de test, der kan bruges til at finde ud af, om et billede er reelt eller falskt."

udtrykte fotos

Fremme i kunstig intelligens (AI) gør det stadig vanskeligere at gøre forskellen mellem rigtige billeder, videoer og lyd og skal genkendes af algoritmer . Deepfakes erstatter egenskaberne for en person eller det omkringliggende område med andre og kan få det til at se ud som om enkeltpersoner har sagt eller gjort ting, som de ikke har gjort. Myndighederne advarer om, at denne teknologi militariserer og at sprede forkert information, for eksempel under valg .

Ægte fotos skal have en "konsistent fysik", forklarer Pimbablet, "så de refleksioner, de ser i venstre øjeæble, skal være meget ens, hvis ikke nødvendigvis identiske, til refleksioner i højre øje æble". Forskellene er subtile, så forskerne brugte teknikker, der blev udviklet til at analysere lys på astronomiske billeder.

Det arbejde, der endnu ikke er blevet offentliggjort, dannede grundlaget for master -afhandlingen af ​​Adejumoke Owolabi. Owolabi, en datavidenskabsmand ved University of Hull, UK, flyttede ind i rigtige billeder fra flachr-face og skabte falske ansigter med en billedgenerator. Distribution i billeder af galakser  En række klarere og annoterede billeder af dybere øjne, der viser inkonsekvente refleksioner i hvert øje.

Ved at sammenligne refleksioner i en persons øjebäusser var Owolabi i stand til korrekt at forudsige omkring 70% af tiden, om billedet var falskt. I sidste ende fandt forskerne, at Gini -indekset var bedre end CAS -systemet til at forudsige, om et billede blev manipuleret.

Brant Robertson, astrofysiker ved University of California, Santa Cruz, byder forskning velkommen. "Hvis du imidlertid kan beregne en værdi, der kvantificerer, hvor realistisk et DeepFake -billede kan vises, kan du også træne AI -modellen for at skabe endnu bedre dybfakes ved at optimere denne værdi," advarer han.

Zhiwu Huang, AI -forsker ved University of Southampton, UK, siger, at hans egen forskning ikke har identificeret nogen inkonsekvente lysmønstre i øjnene på Deepfake -billeder. Men "mens den specifikke teknik til at bruge inkonsekvente refleksioner i øjenhjørnet muligvis ikke er vidt brugt, kan sådanne teknikker være nyttige til at analysere subtile afvigelser i belysning, skygger og refleksioner i forskellige dele af et billede," siger han. "Anerkendelsen af ​​uoverensstemmelser i lysets fysiske egenskaber kan supplere eksisterende metoder og forbedre den samlede nøjagtighed af dybere poter."