Ki-chatbot wnosi teoretyków spisku, aby zakwestionować ich przekonania

Ein KI-Chatbot hilft, Verschwörungstheorien zu hinterfragen, indem er fundierte Argumente liefert. Studien zeigen, dass dies das Denken beeinflussen kann.
Bot czatu AI pomaga kwestionować teorie spiskowe, dostarczając uzasadnionych argumentów. Badania pokazują, że może to wpłynąć na myślenie. (Symbolbild/natur.wiki)

Ki-chatbot wnosi teoretyków spisku, aby zakwestionować ich przekonania

<źródło type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-029666-6/d41586-02966-6_27684378.jpg? https://media.nature.com/lw319/magazine-assets/d41586-02966-6/d41586-02966-6_27684378.jpg?as=WEBP 319W „Rozmiary =” (Max-Width) 319px, (Min-Width: 1023px) 100vw, 767px) ">

W badaniu, które zostało opublikowane 12 września w Science

Bleiben Sie informiert: Jeden Abend senden wir Ihnen die Artikel des Tages aus der Kategorie Allgemein – übersichtlich als Liste.

Chociaż wiele teorii spiskowych nie ma prawie żadnych skutków społecznych, ci, którzy zyskują popularność, mogą „wyrządzić prawdziwe szkody”, mówi Fitzgerald. Odnosi się do ataku na Kapitol USA 6 stycznia 2021 r., Który częściowo podsycił roszczenia dotyczące manipulowanych wyborów prezydenckich w 2020 r., A także do retoryki anty-szczepowej, która upośledza akceptację szczepień wobec Covid-19, jako przykłady.

Możliwe jest przekonanie ludzi do zmiany ich opinii, ale może to być czas, który może być czasowy i wyczerpujący - a sama liczba i różnorodność teorii spiskowych utrudnia rozwiązanie problemu na większą skalę. Jednak Costello i jego koledzy chcieli zbadać potencjał dużych modeli głosowych (LLM) - mogą one szybko przetwarzać duże ilości informacji i generować odpowiedzi podobne do ludzkich - w celu zwalczania teorii spiskowych. „Zostali przeszkoleni w Internecie, znają wszystkie teorie spiskowe i ich przeciwdziałanie, więc wydawało się, że jest to bardzo naturalny dodatek”, mówi Costello.

wierzcie lub nie

Naukowcy opracowali skłonny chatbot za pomocą Turbo GPT-4-Turbo-najnowszy LLM producenta Chatgpt Openai z siedzibą w San Francisco w Kalifornii-który został przeszkolony przekonująco przeciwko spiskom. Następnie zwerbowali ponad 1000 uczestników, których demografia zgodziła się z ludźmi z USA liczącymi w odniesieniu do cech takich jak płeć i pochodzenie etniczne. Costello twierdzi, że zespół był w stanie ocenić zdolność chatbota do obalenia różnych spisków poprzez rekrutację ludzi o różnych doświadczeniach życiowych i własnych perspektyw.

Każdy uczestnik został poproszony o opisanie teorii spiskowej w celu wyjaśnienia, dlaczego uważali ją za prawdę i wyrazić siłę ich przekonania za procent. Szczegóły te zostały udostępnione z botem czatu, który następnie rozmawiał z uczestnikiem, w którym cytował informacje i dowody, które podważyły ​​lub odrzucały spisek i zareagował na pytania uczestnika. Odpowiedzi chatbota były dokładne i szczegółowe i często osiągały setki słów. Średnio każda rozmowa trwała około 8 minut.

Podejście okazało się skuteczne: pewność siebie uczestników w wybranej teorii spiskowej spadła średnio o 21 %po interakcji z botem czatu. A 25 % uczestników zmieniło się z wysokiego zaufania (ponad 50 %) na niepewność. Zmiana nie była zauważalna dla grup kontrolnych, które mówiły na podobny temat z tym samym botem czatu. Kolejne badanie dwa miesiące później wykazało, że zmiana perspektywy trwała wraz z wieloma uczestnikami.

Chociaż wyniki badania są obiecujące, naukowcy wskazują, że uczestnikom zapłacono uczestnikom ankiety i mogą nie być reprezentatywni dla osób głęboko zaangażowanych w teorie spiskowe.

Skuteczna interwencja

Fitzgerald jest entuzjastycznie nastawiony do potencjału AI do działania przeciwko spiskom. „Jeśli uda nam się znaleźć sposób na zapobieganie przemocy w trybie offline, to zawsze dobra rzecz” - mówi. Sugeruje to, że następujące badania mogą zbadać różne wskaźniki w celu oceny skuteczności chatbota lub że badanie można powtórzyć przy użyciu LLM z mniej zaawansowanymi miarami bezpieczeństwa w celu zapewnienia, że ​​nie zintensyfikują myślenia konspiracyjnego.

Wcześniejsze badania wyraziły obawy dotyczące tendencji chatbotów AI do „halucynacji” niepoprawnych informacji. Jednak badanie zapewniło uniknięcie tej możliwości - zespół Costello poprosił profesjonalnego testera faktycznego o ocenę dokładności informacji dostarczonych przez chatbota, co potwierdziło, że żadne z oświadczeń nie było nieprawidłowe ani politycznie stronnicze.

Costello mówi, że zespół planuje dalsze eksperymenty w celu przetestowania różnych strategii chatbota, na przykład w celu zbadania, co się stanie, gdy odpowiedzi Chatbots są niegrzeczne. Mają nadzieję, że dowiedzą się więcej o tym, co sprawiło, że to specjalne badanie było tak skuteczne poprzez identyfikację „eksperymentów, w których przekonanie już nie działa”.

  1. Costello, T. H., Pennycook, G. & Rand, D. G. Science 385 , EADQ1814 (2024).

    artykuł

  2. Download References