Ki-chatbot aduce teoreticieni ai conspirației pentru a-și pune la îndoială credințele

Ki-chatbot aduce teoreticieni ai conspirației pentru a-și pune la îndoială credințele
Într-un studiu care a fost publicat pe 12 septembrie în Science "Această lucrare a pus sub semnul întrebării multe literaturi existente care presupune că trăim într -o societate postată", spune Katherine Fitzgerald, care cercetează teoriile conspirației și dezinformarea la Queensland University of Technology din Brisbane, Australia.
Analizele anterioare au sugerat că oamenii sunt atrași de teoriile conspirației, deoarece caută securitate și certitudine într -o lume turbulentă. Dar „ceea ce am descoperit în această lucrare contrazice această explicație tradițională”, spune co -autor Thomas Costello, o livadă de psihologie la Universitatea Americană din Washington DC. "Una dintre aplicațiile potențial interesante ale acestei cercetări este că KI ar putea fi folosită pentru a respinge teoriile conspirației în viața reală."
Deși multe teorii ale conspirației nu au niciun efecte sociale, cei care câștigă popularitate pot „face daune reale”, spune Fitzgerald. Se referă la atacul asupra Capitolului SUA din 6 ianuarie 2021, care a fost parțial alimentat de pretențiile cu privire la alegerile prezidențiale manipulate în 2020, precum și de retorica anti-vaccin, care afectează acceptarea vaccinării împotriva Covid-19, ca exemple. Este posibil să se convingă oamenii să -și schimbe opinia, dar aceasta poate fi conștientă de timp și epuizantă - iar numărul și varietatea teoriilor conspirației îngreunează abordarea problemei la o scară mai mare. Cu toate acestea, Costello și colegii săi au dorit să examineze potențialul modelelor vocale mari (LLM) - acestea pot prelucra rapid cantități mari de informații și să genereze răspunsuri asemănătoare omului - pentru a combate teoriile conspirației. „Au fost instruiți pe internet, știu toate teoriile conspirației și argumentele lor, așa că părea a fi un plus foarte natural”, spune Costello. Cercetătorii au dezvoltat un chatbot personalizat folosind GPT-4 Turbo-cel mai recent LLM al producătorului chatgpt OpenAI, cu sediul în San Francisco, California-care a fost instruit convingător împotriva conspirațiilor. Apoi au recrutat peste 1.000 de participanți a căror demografie a fost de acord cu oamenii din SUA care contează în raport cu caracteristici precum sexul și etnia. Costello spune că echipa a fost capabilă să evalueze capacitatea chatbotului de a respinge o varietate de conspirații prin recrutarea persoanelor cu experiențe de viață diferite și propriile perspective.
Fiecare participant a fost solicitat să descrie o teorie a conspirației pentru a explica de ce au considerat -o adevărată și pentru a exprima puterea convingerii lor ca procent. Aceste detalii au fost împărtășite cu chat -ul bot, care a avut apoi o conversație cu participantul, în care a citat informații și dovezi care au subminat sau respins conspirația și au reacționat la întrebările participantului. Răspunsurile chatbot -ului au fost minuțioase și detaliate și au ajuns adesea la sute de cuvinte. În medie, fiecare conversație a durat aproximativ 8 minute. Abordarea s -a dovedit a fi eficientă: încrederea de sine a participanților la teoria conspirației alese a scăzut în medie cu 21 %după ce au interacționat cu chat -ul bot. Și 25 % dintre participanți s -au schimbat de la încredere ridicată (peste 50 %) la incertitudine. Schimbarea a fost greu vizibilă pentru grupurile de control, care au vorbit pe un subiect similar cu același bot de chat. O examinare de urmărire, două luni mai târziu, a arătat că schimbarea perspectivei a continuat cu mulți participanți. Deși rezultatele studiului sunt promițătoare, cercetătorii subliniază că participanții au fost plătiți participanți la sondaj și este posibil să nu fie reprezentativi pentru persoanele care sunt profund implicate în teoriile conspirației. Fitzgerald este entuziasmat de potențialul AI de a acționa împotriva conspirațiilor. „Dacă putem găsi o modalitate de a preveni violența offline, acesta este întotdeauna un lucru bun”, spune ea. Acesta sugerează că examenele de urmărire ar putea examina diverse valori pentru a evalua eficacitatea chatbotului sau că studiul ar putea fi repetat folosind LLM -uri cu măsuri de securitate mai puțin avansate pentru a se asigura că nu intensifica gândirea conspirativă. Studiile anterioare și -au exprimat îngrijorarea cu privire la tendința chatbotilor AI de a „halucina” informații incorecte. Cu toate acestea, studiul s -a asigurat să evite această posibilitate - echipa lui Costello a cerut unui tester de fapt profesional să evalueze exactitatea informațiilor furnizate de chatbot, ceea ce a confirmat că niciuna dintre declarații nu este incorectă sau părtinitoare din punct de vedere politic. Costello spune că echipa planifică experimente suplimentare pentru a testa diverse strategii ale chatbotului, de exemplu pentru a examina ce se întâmplă atunci când răspunsurile chatbots sunt nepoliticoase. Ei speră să afle mai multe despre ceea ce a făcut acest studiu special atât de reușit prin identificarea „experimentelor în care condamnarea nu mai funcționează”.
idei dăunătoare
credeți sau nu
intervenție eficientă
-
Costello, T. H., Pennycook, G. & Rand, D. G. Science 385 , Eadq1814 (2024).