Ki Deepfake čelí s objevenými astronomickými metodami

Ki Deepfake čelí s objevenými astronomickými metodami
Analýzou obrázků tváří, které se obvykle používají ke zkoumání vzdálených galaxií, mohou astronomové měřit, jak oči člověka odrážejí světlo, což může naznačovat známky manipulace s obrazem.
„Nejedná se o všelék, protože máme falešně pozitivní a falešně negativní výsledky,“ říká Kevin Pimbabl, ředitel Centra pro datovou vědu, umělou inteligenci a modelování na University of Hull ve Velké Británii. 15. července představil výzkum na národním astronomickém setkání Královské astronomické společnosti. „Tento výzkum však nabízí potenciální metodu důležitého kroku vpřed, který by mohl přidat k testům, které lze použít k zjištění, zda je obrázek skutečný nebo falešný.“
vyjádřené fotografie
Propaguje v umělé inteligenci (AI) ztěžující rozdíl mezi skutečnými obrázky, videi a zvukem a Uznání algoritmy . Deepfakes nahradí charakteristiky osoby nebo okolí s ostatními a může to vypadat, jako by jednotlivci řekli nebo dělali věci, které neudělali. Úřady varují, že tato technologie je militarizuje a šíří dezinformace, pro příklad k tělesnému textu" = "" " Během voleb .
Skutečné fotografie by měly mít „konzistentní fyziku“, vysvětluje Pimbablet, „takže odrazy, které vidí v levém oční bulvě, by měly být velmi podobné, ne -li nutně identické, s odrazy v pravém oku“. Rozdíly jsou jemné, takže vědci používali techniky, které byly vyvinuty k analýze světla v astronomických obrazech.
Práce, která dosud nebyla zveřejněna, byla tvořena základem magisterské práce Adejumoke Owolabi. Owolabi, vědec údajů z University of Hull ve Velké Británii, se přestěhoval do skutečných obrázků z
Porovnáním odrazů v očích osoby byl Owolabi schopen správně předpovídat asi 70% času, zda byl obraz falešný. Vědci nakonec zjistili, že index Gini byl lepší než systém CAS, aby předpovídal, zda byl obraz manipulován.
Brant Robertson, astrofyzik na Kalifornské univerzitě, Santa Cruz, vítá výzkum. „Pokud však dokážete vypočítat hodnotu, která kvantifikuje, jak se může objevit realisticky hluboký obraz, můžete také trénovat model AI, abyste vytvořili ještě lepší deepfakes optimalizací této hodnoty,“ varuje.
Zhiwu Huang, výzkumný pracovník AI na University of Southampton ve Velké Británii, říká, že jeho vlastní výzkum neidentifikoval žádné nekonzistentní světelné vzorce v očích hlubokých obrazů. Ale „zatímco specifická technika použití nekonzistentních odrazů v rohu oka nemusí být široce používána, takové techniky by mohly být užitečné pro analýzu jemných anomálií při osvětlení, stínech a odraztech v různých částech obrazu,“ říká. „Uznání nesrovnalostí ve fyzikálních vlastnostech světla by mohlo doplnit stávající metody a zlepšit celkovou přesnost hlubších tlap.“