يواجه كي Deepfake مع أساليب فلكية تم اكتشافها

يواجه كي Deepfake مع أساليب فلكية تم اكتشافها
ترويج في الذكاء الاصطناعي (AI) يجعل من الصعب بشكل متزايد إحداث الفرق بين الصور الحقيقية ومقاطع الفيديو والصوت و ليتم التعرف عليها بواسطة الخوارزميات . تحل Deepfakes محل خصائص الشخص أو المنطقة المحيطة مع الآخرين ويمكن أن تجعلها تبدو كما قال الأفراد أو فعلوا أشياء لم يفعلوها. تحذر السلطات من أن هذه التكنولوجيا العسكرية ونشر المعلومات الخاطئة ، .
يجب أن تحتوي الصور الحقيقية على "فيزياء متسقة" ، كما يوضح Pimbablet ، "بحيث يجب أن تكون الانعكاسات التي يرونها في مقلة العين اليسرى متشابهة للغاية ، إن لم تكن متطابقة بالضرورة ، مع التأملات في تفاحة العين اليمنى". الاختلافات دقيقة ، لذلك استخدم الباحثون التقنيات التي تم تطويرها لتحليل الضوء في الصور الفلكية. شكل العمل الذي لم يتم نشره بعد الأساس لأطروحة الماجستير من قبل Adejumoke Owolabi. انتقل Owolabi ، وهو عالم بيانات في جامعة هال ، المملكة المتحدة ، إلى صور حقيقية من
من خلال مقارنة الانعكاسات في ظهور شخص ما ، تمكن Owolabi من التنبؤ بشكل صحيح بحوالي 70 ٪ من الوقت سواء كانت الصورة مزيفة. في نهاية المطاف ، وجد الباحثون أن مؤشر جيني كان أفضل من نظام CAS للتنبؤ بما إذا كان قد تم معالجة الصورة. برانت روبرتسون ، عالم الفيزياء الفلكية في جامعة كاليفورنيا ، سانتا كروز ، يرحب بالأبحاث. "ومع ذلك ، إذا كان بإمكانك حساب القيمة التي تحدد مدى واقعية قد تظهر صورة عميقة ، فيمكنك أيضًا تدريب نموذج الذكاء الاصطناعى ، لإنشاء أعماق أفضل من خلال تحسين هذه القيمة" ، يحذر. Zhiwu Huang ، باحث من الذكاء الاصطناعي بجامعة ساوثهامبتون ، المملكة المتحدة ، إن أبحاثه الخاصة لم تحدد أي أنماط ضوئية غير متناسقة في عيون صور Deepfake. لكن "في حين أن التقنية المحددة لاستخدام الانعكاسات غير المتسقة في زاوية العين قد لا تستخدم على نطاق واسع ، فإن هذه التقنيات قد تكون مفيدة لتحليل الحالات الشاذة الدقيقة في الإضاءة والظلال والانعكاسات في أجزاء مختلفة من الصورة". "إن الاعتراف بالتناقضات في الخواص الفيزيائية للضوء يمكن أن يكمل الأساليب الحالية ويحسن دقة الكفوف الأعمق."