Ki-Chatbot يجلب منظري المؤامرة للتشكيك في معتقداتهم

Ein KI-Chatbot hilft, Verschwörungstheorien zu hinterfragen, indem er fundierte Argumente liefert. Studien zeigen, dass dies das Denken beeinflussen kann.
يساعد روبوت دردشة الذكاء الاصطناعى على التشكيك في نظريات المؤامرة من خلال توفير حجج جيدة التأسيس. تشير الدراسات إلى أن هذا يمكن أن يؤثر على التفكير. (Symbolbild/natur.wiki)

Ki-Chatbot يجلب منظري المؤامرة للتشكيك في معتقداتهم

<الشكل class = "الشكل"> لقد أظهرت المناطق أن الذكاء الاصطناعي (AI) يمكن أن يكون أداة قيمة في مكافحة نظريات المؤامرة. لقد طوروا روبوت دردشة يمكنه دحض المعلومات الخاطئة وتشجيع الناس على التشكيك في طريقة تفكيرهم.

في دراسة تم نشرها في 12 سبتمبر في Science 1 مع الروبوتات التي قدمت إجابات تفصيلية ، والتي تؤدي إلى تغيير في ذلك آخر. تشير هذه النتيجة إلى أن الحقائق والأدلة يمكن أن تغير في الواقع رأي الناس.

يقول كاثرين فيتزجيرالد ، التي تبحث عن نظريات المؤامرة والمعلومات الخاطئة في جامعة كوينزلاند للتكنولوجيا في بريسبان ، أستراليا:

اقترحت التحليلات السابقة أن ينجذب الناس إلى نظريات المؤامرة لأنهم يبحثون عن الأمن واليقين في عالم مضطرب. يقول توماس كوستيلو ، وهو بستان علم النفس في الجامعة الأمريكية في واشنطن العاصمة: "ما اكتشفناه في هذا العمل يتناقض مع هذا التفسير التقليدي". "One of the potentially exciting applications of this research is that Ki could be used to refute conspiracy theories in real life."

الأفكار الضارة

تقترح الدراسات الاستقصائية

على الرغم من أن العديد من نظريات المؤامرة لا تكاد يكون لها أي آثار اجتماعية ، فإن أولئك الذين يكتسبون شعبية يمكنهم "أن يلحقوا أضرارًا حقيقية" ، كما يقول فيتزجيرالد. إنه يشير إلى الهجوم على الكابيتول في الولايات المتحدة في 6 يناير 2021 ، والذي تم تغذيته جزئيًا من خلال مطالبات حول الانتخابات الرئاسية المعالجة في عام 2020 ، وكذلك خطاب مكافحة القاحم ، والذي يضعف قبول التطعيم ضد Covid-19 ، كأمثلة.

من الممكن إقناع الناس بتغيير رأيهم ، ولكن هذا يمكن أن يكون الوقت - يستهلك ومرهقًا - والرقم الهائل وتنوع نظريات المؤامرة يجعل من الصعب معالجة المشكلة على نطاق أوسع. ومع ذلك ، أراد Costello وزملاؤه دراسة إمكانات النماذج الصوتية الكبيرة (LLMS) - يمكن أن تعالج هذه الكميات الكبيرة من المعلومات بسرعة وتوليد إجابات تشبه الإنسان - لمكافحة نظريات المؤامرة. يقول كوستيلو: "لقد تم تدريبهم على الإنترنت ، ومعرفة جميع نظريات المؤامرة وحججهم المضادة ، لذلك يبدو أنها إضافة طبيعية للغاية".

صدق أو لا تصدق

طور الباحثون chatbot مصممة خصيصًا باستخدام GPT-4 Turbo-أحدث LLM من شركة ChatGPT المصنعة Openai ، ومقرها في سان فرانسيسكو ، كاليفورنيا-تم تدريبها بشكل مقنع ضد المؤامرات. ثم قاموا بتجنيد أكثر من 1000 مشارك وافق سكانيهم مع الأشخاص الأمريكيين الذين يعتمدون فيما يتعلق بخصائص مثل الجنس والعرق. يقول Costello إن الفريق كان قادرًا على تقييم قدرة chatbot على دحض مجموعة متنوعة من المؤامرات من خلال تجنيد الأشخاص ذوي الخبرات الحياتية المختلفة ووجهات نظرهم الخاصة.

طُلب من كل مشارك وصف نظرية المؤامرة لشرح سبب اعتبارهم صحيحًا والتعبير عن قوة قناعتهم كنسبة مئوية. تمت مشاركة هذه التفاصيل مع روبوت الدردشة ، الذي أجري بعد ذلك محادثة مع المشارك ، حيث استشهد بالمعلومات والأدلة التي تقوض أو دحض المؤامرة وتفاعل مع مسائل المشارك. كانت إجابات chatbot شاملة ومفصلة وغالبًا ما وصلت إلى مئات الكلمات. في المتوسط ​​، استغرقت كل محادثة حوالي 8 دقائق.

اتضح أن النهج فعال: انخفضت الثقة بالنفس للمشاركين في نظرية التآمر المختارة في المتوسط ​​بنسبة 21 ٪ بعد تفاعلهم مع روبوت الدردشة. وتغير 25 ٪ من المشاركين من الثقة العالية (أكثر من 50 ٪) إلى عدم اليقين. كان التغيير بالكاد ملحوظًا بالنسبة لمجموعات التحكم ، التي تحدثت عن موضوع مماثل مع نفس روبوت الدردشة. أظهر امتحان المتابعة بعد شهرين أن تغيير المنظور استمر مع العديد من المشاركين.

على الرغم من أن نتائج الدراسة واعدة ، فإن الباحثين يشيرون إلى أن المشاركين قد تم دفعهم للمشاركين في المسح وقد لا يكونون ممثلين للأشخاص الذين يشاركون بعمق في نظريات المؤامرة.

تدخل فعال

Fitzgerald متحمس لإمكانات الذكاء الاصطناعي للتصرف ضد المؤامرات. وتقول: "إذا تمكنا من إيجاد طريقة لمنع العنف دون اتصال ، فهذا أمر جيد دائمًا". إنه يشير إلى أن الفحوصات التالية يمكن أن تدرس مقاييس مختلفة لتقييم فعالية chatbot أو أنه يمكن تكرار الدراسة باستخدام LLMs مع تدابير أمنية أقل تقدماً لضمان عدم تكثيف التفكير التآمري.

أعربت الدراسات السابقة عن مخاوفها بشأن ميل chatbots من الذكاء الاصطناعي إلى "هلوسات" المعلومات غير الصحيحة. ومع ذلك ، حرصت الدراسة على تجنب هذا الاحتمال - طلب فريق Costello من اختبار واقعية محترفة تقييم دقة المعلومات التي قدمتها chatbot ، والتي أكدت أن أيا من العبارات لم تكن غير صحيحة أو متحيز سياسيا.

يقول

Costello أن الفريق يخطط لمزيد من التجارب لاختبار استراتيجيات مختلفة من chatbot ، على سبيل المثال لدراسة ما يحدث عندما تكون إجابات chatbots وقحة. يأملون في معرفة المزيد حول ما الذي جعل هذه الدراسة الخاصة ناجحة للغاية من خلال تحديد "التجارب التي لم تعد الإدانة تعمل".

<قسم حاوية بيانات DIV = "المراجع">
  1. Costello ، T. H. ، PennyCook ، G. & Rand ، D. G. Science 385 ، Eadq1814 (2024).

    article
    <استخدم xmlns: xlink =" http://ww3.org/1999/xlink "