Ki Deepfake tváre s objavenými astronomickými metódami

Ki Deepfake tváre s objavenými astronomickými metódami
analýzou obrazov tvárí, ktoré sa bežne používajú na skúmanie vzdialených galaxií, môžu astronómovia zmerať, ako oči človeka odrážajú svetlo, čo môže naznačovať príznaky manipulácie s obrazom.
„Nie je to všeliek, pretože máme falošne pozitívne a nepravdivé negatívne výsledky,“ hovorí Kevin Pimbabb, riaditeľ Centra pre vedu o údajoch, umelej inteligencie a modelovanie na University of Hull, UK. 15. júla predstavil výskum na Národnom stretnutí astronómie Kráľovskej astronomickej spoločnosti. „Tento výskum však ponúka potenciálnu metódu dôležitého kroku vpred, aby ste mohli pridať testy, ktoré možno použiť na zistenie, či je obrázok skutočný alebo falošný.“
vyjadrené fotografie
Propaguje umelú inteligenciu (AI) sťažuje zmenu rozdielu medzi skutočnými obrázkami, videami a zvukom a sa má rozpoznať algoritmami . Deepfakes nahrádza charakteristiky osoby alebo okolia ostatnými a môže vyzerať tak, že jednotlivci povedali alebo robili veci, ktoré neurobili. Úrady varujú, že táto technológia militarizuje a šíri dezinformácie, .
Skutočné fotografie by mali mať „konzistentnú fyziku“, vysvetľuje Pimbablet, „aby odrazy, ktoré vidia v ľavom očiach, by mali byť veľmi podobné, ak nie nevyhnutne identické, s odrazmi v pravom oku Apple“. Rozdiely sú jemné, takže vedci používali techniky, ktoré boli vyvinuté na analýzu svetla v astronomických obrazoch. Práca, ktorá ešte nebola zverejnená, tvorila základ pre diplomovú prácu Adejumoke Owolabi. Owolabi, vedec údajov z University of Hull, UK, presťahoval sa do skutočných obrázkov z
Porovnaním odrazov v očiach osoby Owolabi dokázal správne predpovedať asi 70% času, či bol obraz falošný. Vedci nakoniec zistili, že index Gini bol lepší ako systém CAS, aby predpovedal, či sa s obrazom manipuloval. Brant Robertson, astrofyzik na Kalifornskej univerzite v Santa Cruz, víta výskum. „Ak však dokážete vypočítať hodnotu, ktorá kvantifikuje, ako sa realisticky môže objaviť obraz hlbokého fake, môžete tiež trénovať model AI, aby ste vytvorili ešte lepšie hlboké fláky optimalizáciou tejto hodnoty,“ varuje. Zhiwu Huang, výskumný pracovník AI na University of Southampton vo Veľkej Británii, tvrdí, že jeho vlastný výskum neidentifikoval žiadne nekonzistentné svetelné vzory v očiach obrazov Deepfake. „Zatiaľ čo špecifická technika použitia nekonzistentných odrazov v očnom rohu sa nemusí používať široko, tieto techniky by mohli byť užitočné na analýzu jemných anomálií pri osvetlení, tieňoch a odrazoch v rôznych častiach obrazu,“ hovorí. „Rozpoznávanie nezrovnalostí vo fyzických vlastnostiach svetla by mohlo doplniť existujúce metódy a zlepšiť celkovú presnosť hlbších labiek.“