Ki-Chatbot bringer konspirasjonsteoretikere til å stille spørsmål ved sin tro

Ki-Chatbot bringer konspirasjonsteoretikere til å stille spørsmål ved sin tro
I en studie som ble publisert 12. september i Science
"Dette arbeidet stilte spørsmål ved mange eksisterende litteratur som antar at vi lever i et faktuelt samfunn," sier Katherine Fitzgerald, som forsker på konspirasjonsteorier og feilinformasjon ved Queensland University of Technology i Brisbane, Australia.
Tidligere analyser har antydet at mennesker er tiltrukket av konspirasjonsteorier fordi de leter etter sikkerhet og sikkerhet i en turbulent verden. Men "det vi oppdaget i dette arbeidet er i strid med denne tradisjonelle forklaringen," sier medforfatter Thomas Costello, en psykologi -frukthage ved American University i Washington DC. "En av de potensielt spennende anvendelsene av denne forskningen er at KI kan brukes til å tilbakevise konspirasjonsteorier i det virkelige liv."
skadelige ideer
Selv om mange konspirasjonsteorier knapt har noen sosiale effekter, kan de som får popularitet "gjøre reelle skader," sier Fitzgerald. Det refererer til angrepet på den amerikanske hovedstaden 6. januar 2021, som delvis ble drevet av påstander om et manipulert presidentvalg i 2020, samt anti-vaksinretorikken, som svekker vaksinasjonsakseptet mot Covid-19, som eksempler.
Det er mulig å overbevise folk om å endre sin mening, men dette kan være tid -konsumerende og utmattende - og det store antallet og variasjonen av konspirasjonsteorier gjør det vanskelig å løse problemet i større skala. Imidlertid ønsket Costello og kollegene å undersøke potensialet til store stemmemodeller (LLM) - disse kan behandle store mengder informasjon raskt og generere menneskelige lignende svar - for å bekjempe konspirasjonsteorier. "De ble trent på internett, kjenner alle konspirasjonsteorier og motargumenter, så det så ut til å være et veldig naturlig tillegg," sier Costello.
Tro det eller ei
Forskerne utviklet en skreddersydd chatbot ved hjelp av GPT-4 Turbo-den siste LLM av ChatGPT-produsenten Openai, med base i San Francisco, California-som ble trent overbevisende mot konspirasjoner. De rekrutterte deretter over 1000 deltakere hvis demografi var enige med de amerikanske folket som teller i forhold til egenskaper som kjønn og etnisitet. Costello sier at teamet var i stand til å vurdere chatbots evne til å tilbakevise en rekke konspirasjoner ved å rekruttere mennesker med forskjellige livserfaringer og deres egne perspektiver.
Hver deltaker ble bedt om å beskrive en konspirasjonsteori for å forklare hvorfor de anså det som sant og å uttrykke styrken i sin overbevisning i prosent. Disse detaljene ble delt med Chat Bot, som deretter hadde en samtale med deltakeren, der han siterte informasjon og bevis som undergravde eller tilbakeviste konspirasjonen og reagerte på spørsmålene til deltakeren. Svarene på chatbot var grundige og detaljerte og nådde ofte hundrevis av ord. I gjennomsnitt tok hver samtale omtrent 8 minutter.
Tilnærmingen viste seg å være effektiv: deltakernes selvtillit til deltakerne i deres valgte konspirasjonsteori falt i gjennomsnitt med 21 %etter at de samhandlet med chat -bot. Og 25 % av deltakerne endret fra høy tillit (over 50 %) til usikkerhet. Endringen ble neppe merkbar for kontrollgruppene, som snakket om et lignende tema med samme chat -bot. En oppfølgingsundersøkelse to måneder senere viste at endring av perspektiv fortsatte med mange deltakere.
Selv om resultatene fra studien er lovende, påpeker forskerne at deltakerne fikk betalt undersøkelsesdeltakere og kanskje ikke er representative for mennesker som er dypt involvert i konspirasjonsteorier.
Effektiv intervensjon
Fitzgerald er begeistret for at AI -potensialet skal handle mot konspirasjoner. "Hvis vi kan finne en måte å forhindre vold uten nett, er det alltid en god ting," sier hun. Det antyder at oppfølgingsundersøkelser kan undersøke forskjellige beregninger for å evaluere effektiviteten til chatbot eller at studien kan gjentas ved bruk av LLM -er med mindre avanserte sikkerhetstiltak for å sikre at de ikke intensiverer konspiratorisk tenking.
Tidligere studier har uttrykt bekymring for AI -chatbots tendens til å "hallusinere" feil informasjon. Studien sørget imidlertid for å unngå denne muligheten - Costellos team ba en profesjonell saklig tester om å evaluere nøyaktigheten av informasjonen som ble gitt av chatbot, som bekreftet at ingen av uttalelsene var uriktige eller politisk partiske.
Costello sier at teamet planlegger ytterligere eksperimenter for å teste forskjellige strategier for chatbot, for eksempel for å undersøke hva som skjer når chatbots svar er frekk. De håper å lære mer om hva som gjorde denne spesielle studien så vellykket gjennom identifiseringen "av eksperimentene der overbevisningen ikke lenger fungerer".
-
Costello, T. H., PennyCook, G. & Rand, D. G. Science 385 , EADQ1814 (2024).