Lo strumento AI promuove il dialogo tra persone con opinioni opposte

Lo strumento AI promuove il dialogo tra persone con opinioni opposte
Uno strumento simile alla chat supportato dall'intelligenza artificiale (AI) può aiutare le persone con opinioni diverse per trovare aree di accordo. Ciò è mostrato da un esperimento con gruppi di discussione online.
Il modello sviluppato da Google DeepMind a Londra è stato in grado di sintetizzare opinioni divergenti e creare riassunti della posizione di ciascun gruppo che ha tenuto conto di diverse prospettive. I partecipanti hanno preferito i riassunti generati dall'IA a quelli scritti da mediatori umani. Ciò indica che tali strumenti potrebbero essere utilizzati per supportare consultazioni complesse. Lo studio è stato pubblicato il 17 ottobre nella rivista Science 1 .
"Puoi vederlo come una prova di fattibilità che puoi usare l'IA, in particolare i modelli di linguaggio di grandi dimensioni, per svolgere parte della funzione che è attualmente adempiuta dalle riunioni e dalle indagini deliberative dei cittadini", afferma Christopher Summerfield, co -autore dello studio e direttore della ricerca presso la sicurezza degli AI del Regno Unito. "Le persone devono trovare somiglianze, perché un'azione collettiva richiede l'approvazione".
compromesso macchina
Iniziative democratiche come le riunioni dei cittadini, in cui ai gruppi viene chiesto di condividere le loro opinioni su questioni politiche, assicurano che i politici ascoltino una varietà di prospettive. Tuttavia, l'espansione di queste iniziative può essere difficile perché queste discussioni sono spesso limitate a piccoli gruppi per garantire che tutte le voci siano ascoltate.
Curioso per la ricerca sulle possibilità di modelli di grandi dimensioni (LLM), Summerfield, insieme ai suoi colleghi, ha sviluppato uno studio per valutare come l'IA potrebbe aiutare le persone con opinioni opposte per ottenere un compromesso.
Usano una versione perfetta del pre-allenato DeepMind LLM Chinchilla, che hanno chiamato "Habermas Machine", che prende il nome dal filosofo Jürgen Habermas, che ha sviluppato una teoria di come le discussioni razionali possono aiutare a risolvere i conflitti.
Per testare il loro modello, i ricercatori hanno reclutato 439 residenti britannici che sono stati divisi in gruppi più piccoli. Ogni gruppo ha discusso di tre domande su questioni politiche britanniche e ha condiviso le loro opinioni personali. Queste opinioni sono state quindi inserite nella macchina dell'IA, che ha generato dichiarazioni generali che hanno combinato le prospettive di tutti i partecipanti. I partecipanti sono stati in grado di valutare qualsiasi dichiarazione e inviare recensioni, che l'IA ha quindi incorporato in un riepilogo finale della prospettiva collettiva del gruppo.
"Il modello è addestrato a produrre una dichiarazione supportata da un gruppo di persone che hanno espresso volontariamente le loro opinioni", afferma Summerfield. "Poiché il modello apprende quali sono le tue preferenze su queste dichiarazioni, può quindi creare un'affermazione che molto probabilmente tutti soddisfano."
Oltre all'IA, un partecipante è stato selezionato come mediatore. Gli è stato anche chiesto di creare un riepilogo che includa meglio le opinioni di tutti i partecipanti. Ai partecipanti sono stati dati sia i riassunti dell'IA sia quelli del mediatore e dovrebbero valutarli.
La maggior parte dei partecipanti ha valutato i riassunti scritti dall'IA migliore di quelli del mediatore. Il 56 % dei partecipanti ha preferito le prestazioni dell'intelligenza artificiale rispetto al 44 % che preferiva il riepilogo umano. Agli esperti esterni è stato inoltre chiesto di valutare i riassunti e di aver recitato per la giustizia, la qualità e la chiarezza del sommario AI.
Il team di ricerca ha quindi reclutato un gruppo di partecipanti che erano demograficamente rappresentativi della popolazione britannica per una riunione dei cittadini virtuali. In questo scenario, l'accordo di gruppo è aumentato su argomenti controversi dopo aver interagito con l'IA. Questa realizzazione suggerisce che quando sono integrati in una riunione dei cittadini reali, gli strumenti di intelligenza artificiale potrebbero rendere più facile per i leader sviluppare proposte politiche che tengono conto di diverse prospettive.
"L'LLM potrebbe essere utilizzato in molti modi per sostenere e affrontare consultazioni precedentemente riservate ai moderatori umani", afferma Ethan Busby, che esamina come gli strumenti di intelligenza artificiale potrebbero migliorare le società democratiche, presso la Brigham Young University di Provo, Utah. "Lo considero come la punta del lavoro in questo settore, che ha un grande potenziale per affrontare urgenti problemi sociali e politici". Summerfield aggiunge che l'intelligenza artificiale potrebbe anche aiutare a rendere i processi di risoluzione dei conflitti più veloci ed efficienti.
Connessioni perse
"Per applicare effettivamente queste tecnologie a esperimenti e processi deliberativi, è davvero gratificante", afferma Sammy McKinney, che esamina la democrazia deliberativa e le sue interfacce per l'intelligenza artificiale presso l'Università di Cambridge, nel Regno Unito. Ma aggiunge che i ricercatori dovrebbero considerare attentamente i potenziali effetti dell'IA sull'aspetto umano della deliberazione. "Un motivo principale per supportare le deliberazioni civiche è che creano determinate stanze in cui le persone possono relazionarsi tra loro", afferma. "Cosa perdiamo se stiamo rimuovendo sempre più il contatto umano e la moderazione umana?"
Summerfield riconosce le restrizioni associate a tecnologie di intelligenza artificiale come questa. "Non abbiamo formato il modello per intervenire nella deliberazione", afferma, il che significa che l'affermazione del modello potrebbe contenere anche convinzioni estremiste o problematiche. Aggiunge che una ricerca rigorosa sugli effetti dell'intelligenza artificiale sulla società è fondamentale per comprenderne valore.
"Agire attentamente, mi sembra importante", dice McKinney, "e poi prende provvedimenti per mitigare queste preoccupazioni ove possibile."
- >
-
Tessler, M.H. et al., Science 386, EADQ2852 (2024).
google scholar Reference" Data-Track-Value = "Google Scholar Reference" Data-Track-Label = "Link" Data-Track-Item_id = "Nofollow Noopener" Aria Lebel = "Google Scholar Reference 1" Href = "http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=tessler%2cm.h.">
Google Scholar