1 con il bot di chat, che ha fornito le risposte dettagliate e gli argomenti, che hanno portato a pensare a quella categoria dei dati = "Riferimenti. Questo risultato indica che fatti e prove possono effettivamente cambiare l'opinione delle persone.

"Questo lavoro ha messo in dubbio molte letterature esistenti che presuppone che viviamo in una società post -fattuale", afferma Katherine Fitzgerald, che sta ricercando teorie della cospirazione e disinformazione presso l'Università della tecnologia del Queensland a Brisbane, in Australia.

Analisi precedenti hanno suggerito che le persone sono attratte dalle teorie della cospirazione perché stanno cercando sicurezza e certezza in un mondo turbolento. Ma "ciò che abbiamo scoperto in questo lavoro contraddice questa spiegazione tradizionale", afferma il co -autore Thomas Costello, un frutteto di psicologia all'Università americana di Washington DC. "Una delle applicazioni potenzialmente entusiasmanti di questa ricerca è che Ki potrebbe essere usato per confutare le teorie della cospirazione nella vita reale".

idee dannose

Sebbene molte teorie della cospirazione abbiano quasi nessun effetto sociale, coloro che ottengono popolarità possono "fare danni reali", afferma Fitzgerald. Si riferisce all'attacco al Campidoglio degli Stati Uniti il ​​6 gennaio 2021, che è stato parzialmente alimentato da affermazioni su un'elezione presidenziale manipolata nel 2020, nonché la retorica anti-vaccino, che compromette l'accettazione della vaccinazione contro Covid-19, come esempi.

È possibile convincere le persone a cambiare la loro opinione, ma questo può essere il tempo che consuma ed estenuante - e il numero puro e la varietà di teorie della cospirazione rendono difficile affrontare il problema su una scala più ampia. Tuttavia, Costello e i suoi colleghi volevano esaminare il potenziale dei grandi modelli vocali (LLM): questi possono elaborare rapidamente grandi quantità di informazioni e generare risposte simili all'uomo - per combattere le teorie della cospirazione. "Sono stati addestrati su Internet, conoscono tutte le teorie della cospirazione e le loro discussioni, quindi sembrava essere un'aggiunta molto naturale", afferma Costello.

Credi o no

I ricercatori hanno sviluppato un chatbot su misura utilizzando GPT-4 Turbo-L'ultimo LLM del produttore di Chatgpt Openai, con sede a San Francisco, in California, che è stato addestrato in modo convincente contro le cospirazioni. Hanno quindi reclutato oltre 1.000 partecipanti la cui demografia era d'accordo con le persone statunitensi che contavano in relazione a caratteristiche come genere ed etnia. Costello afferma che il team è stato in grado di valutare la capacità del chatbot di confutare una varietà di cospirazioni reclutando persone con esperienze di vita diverse e le proprie prospettive.

A ciascun partecipante è stato chiesto di descrivere una teoria della cospirazione per spiegare perché la considerava vera ed esprimere la forza della loro convinzione in percentuale. Questi dettagli sono stati condivisi con il bot di chat, che poi ha avuto una conversazione con il partecipante, in cui ha citato informazioni e prove che hanno minato o confutato la cospirazione e hanno reagito alle domande del partecipante. Le risposte del chatbot erano accurate e dettagliate e spesso raggiungevano centinaia di parole. In media, ogni conversazione ha richiesto circa 8 minuti.

L'approccio si è rivelato efficace: la fiducia in sé dei partecipanti alla teoria della cospirazione prescelta è diminuita in media del 21 %dopo aver interagito con il bot di chat. E il 25 % dei partecipanti è cambiato da alta fiducia (oltre il 50 %) a incertezza. Il cambiamento non era difficile per i gruppi di controllo, che parlavano su un argomento simile con lo stesso bot di chat. Un esame di follow -up due mesi dopo ha mostrato che il cambio di prospettiva è continuato con molti partecipanti.

Sebbene i risultati dello studio siano promettenti, i ricercatori sottolineano che i partecipanti sono stati pagati partecipanti al sondaggio e potrebbero non essere rappresentativi di persone che sono profondamente coinvolte nelle teorie della cospirazione.

Intervento efficace

Fitzgerald è entusiasta del potenziale dell'IA di agire contro le cospirazioni. "Se riusciamo a trovare un modo per prevenire la violenza offline, è sempre una buona cosa", dice. Suggerisce che gli esami di seguizione potrebbero esaminare varie metriche per valutare l'efficacia del chatbot o che lo studio potrebbe essere ripetuto usando LLM con misure di sicurezza meno avanzate per garantire che non si intensificino il pensiero cospiratorio.

Studi precedenti hanno espresso preoccupazione per la tendenza dei chatbot di AI a "allucinare" informazioni errate. Tuttavia, lo studio si è assicurato di evitare questa possibilità: il team di Costello ha chiesto a un tester fattuale professionale di valutare l'accuratezza delle informazioni fornite dal chatbot, il che ha confermato che nessuna delle dichiarazioni era errata o politicamente di parte.

Costello afferma che il team sta pianificando ulteriori esperimenti per testare varie strategie del chatbot, ad esempio per esaminare cosa succede quando le risposte dei chatbot sono scortese. Sperano di saperne di più su ciò che ha reso questo studio speciale così efficace attraverso l'identificazione "degli esperimenti in cui la convinzione non funziona più".