يواجه كي Deepfake مع أساليب فلكية تم اكتشافها

Erfahren Sie, wie Astronomen Techniken nutzen, um täuschend echte Deepfake-Bilder zu entlarven. Dieser Artikel enthüllt, wie Reflexionen in den Augen Licht auf Bildmanipulation hinweisen können. Wichtige Erkenntnisse für die Erkennung von gefälschten Bildern!
تعلم كيف يستخدم علماء الفلك التقنيات لفضح صور DeepFake الحقيقية المخادع. تكشف هذه المقالة كيف يمكن أن تشير الأفكار في عيون الضوء إلى معالجة الصورة. نتائج مهمة للتعرف على الصور المزيفة! (Symbolbild/natur.wiki)

يواجه كي Deepfake مع أساليب فلكية تم اكتشافها

<الشكل class = "الشكل"> الصور المعبر عنها

ترويج في الذكاء الاصطناعي (AI) يجعل من الصعب بشكل متزايد إحداث الفرق بين الصور الحقيقية ومقاطع الفيديو والصوت و ليتم التعرف عليها بواسطة الخوارزميات . تحل Deepfakes محل خصائص الشخص أو المنطقة المحيطة مع الآخرين ويمكن أن تجعلها تبدو كما قال الأفراد أو فعلوا أشياء لم يفعلوها. تحذر السلطات من أن هذه التكنولوجيا العسكرية ونشر المعلومات الخاطئة ، .

يجب أن تحتوي الصور الحقيقية على "فيزياء متسقة" ، كما يوضح Pimbablet ، "بحيث يجب أن تكون الانعكاسات التي يرونها في مقلة العين اليسرى متشابهة للغاية ، إن لم تكن متطابقة بالضرورة ، مع التأملات في تفاحة العين اليمنى". الاختلافات دقيقة ، لذلك استخدم الباحثون التقنيات التي تم تطويرها لتحليل الضوء في الصور الفلكية.

شكل العمل الذي لم يتم نشره بعد الأساس لأطروحة الماجستير من قبل Adejumoke Owolabi. انتقل Owolabi ، وهو عالم بيانات في جامعة هال ، المملكة المتحدة ، إلى صور حقيقية من  سلسلة من الصور الأكثر وضوحًا والشرح من العيون الأعمق التي تظهر انعكاسات غير متسقة في كل عين.

من خلال مقارنة الانعكاسات في ظهور شخص ما ، تمكن Owolabi من التنبؤ بشكل صحيح بحوالي 70 ٪ من الوقت سواء كانت الصورة مزيفة. في نهاية المطاف ، وجد الباحثون أن مؤشر جيني كان أفضل من نظام CAS للتنبؤ بما إذا كان قد تم معالجة الصورة.

برانت روبرتسون ، عالم الفيزياء الفلكية في جامعة كاليفورنيا ، سانتا كروز ، يرحب بالأبحاث. "ومع ذلك ، إذا كان بإمكانك حساب القيمة التي تحدد مدى واقعية قد تظهر صورة عميقة ، فيمكنك أيضًا تدريب نموذج الذكاء الاصطناعى ، لإنشاء أعماق أفضل من خلال تحسين هذه القيمة" ، يحذر.

يقول

Zhiwu Huang ، باحث من الذكاء الاصطناعي بجامعة ساوثهامبتون ، المملكة المتحدة ، إن أبحاثه الخاصة لم تحدد أي أنماط ضوئية غير متناسقة في عيون صور Deepfake. لكن "في حين أن التقنية المحددة لاستخدام الانعكاسات غير المتسقة في زاوية العين قد لا تستخدم على نطاق واسع ، فإن هذه التقنيات قد تكون مفيدة لتحليل الحالات الشاذة الدقيقة في الإضاءة والظلال والانعكاسات في أجزاء مختلفة من الصورة". "إن الاعتراف بالتناقضات في الخواص الفيزيائية للضوء يمكن أن يكمل الأساليب الحالية ويحسن دقة الكفوف الأعمق."