Lo strumento AI promuove il dialogo tra persone con opinioni opposte

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Uno strumento supportato dall’intelligenza artificiale aiuta le persone con opinioni diverse a trovare punti di vista comuni e promuove così il dialogo.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Uno strumento supportato dall’intelligenza artificiale aiuta le persone con opinioni diverse a trovare punti di vista comuni e promuove così il dialogo.

Lo strumento AI promuove il dialogo tra persone con opinioni opposte

Uno strumento simile a un chatbot alimentato dall’intelligenza artificiale (AI) può aiutare le persone con punti di vista diversi a trovare aree di accordo. Ciò è dimostrato da un esperimento con gruppi di discussione online.

Il modello, sviluppato da Google DeepMind a Londra, è stato in grado di sintetizzare opinioni divergenti e produrre riassunti della posizione di ciascun gruppo che prendessero in considerazione prospettive diverse. I partecipanti hanno preferito i riassunti generati dall’intelligenza artificiale rispetto a quelli scritti da mediatori umani. Ciò suggerisce che tali strumenti potrebbero essere utilizzati per supportare consultazioni complesse. Lo studio è stato pubblicato il 17 ottobre sulla rivista Science 1.

“Si può vederlo come una prova del concetto che è possibile utilizzare l’intelligenza artificiale, in particolare modelli linguistici di grandi dimensioni, per svolgere alcune delle funzioni attualmente svolte dalle assemblee dei cittadini e dai sondaggi deliberativi”, afferma Christopher Summerfield, coautore dello studio e direttore della ricerca presso l’AI Safety Institute del Regno Unito. “Le persone hanno bisogno di trovare un terreno comune perché l’azione collettiva richiede il consenso”.

Macchina di compromesso

Iniziative democratiche come le riunioni dei municipi, in cui a gruppi di persone viene chiesto di condividere le loro opinioni su questioni politiche, garantiscono che i politici ascoltino una varietà di prospettive. Tuttavia, ampliare queste iniziative può essere difficile perché queste discussioni sono spesso limitate a piccoli gruppi per garantire che tutte le voci siano ascoltate.

Incuriositi dalla ricerca sulle possibilità dei modelli linguistici di grandi dimensioni (LLM), Summerfield e i suoi colleghi hanno sviluppato uno studio per valutare come l’intelligenza artificiale potrebbe aiutare le persone con opinioni opposte a raggiungere un compromesso.

Hanno implementato una versione ottimizzata del DeepMind LLM Chinchilla pre-addestrato, che hanno chiamato “Habermas Machine”, dal nome del filosofo Jürgen Habermas, che ha sviluppato una teoria su come le discussioni razionali possono aiutare a risolvere i conflitti.

Per testare il loro modello, i ricercatori hanno reclutato 439 residenti britannici che sono stati divisi in gruppi più piccoli. Ogni gruppo ha discusso tre domande su questioni politiche britanniche e ha condiviso le proprie opinioni personali al riguardo. Queste opinioni sono state poi inserite nel motore di intelligenza artificiale, che ha generato dichiarazioni generali che combinavano le prospettive di tutti i partecipanti. I partecipanti hanno potuto valutare e criticare ciascuna affermazione, che l'intelligenza artificiale ha poi incorporato in un riepilogo finale del punto di vista collettivo del gruppo.

"Il modello è addestrato per produrre una dichiarazione che abbia il massimo sostegno da parte di un gruppo di persone che hanno espresso volontariamente le proprie opinioni", afferma Summerfield. "Man mano che il modello apprende quali sono le tue preferenze riguardo a queste affermazioni, può quindi produrre un'affermazione che molto probabilmente soddisferà tutti."

Oltre all'intelligenza artificiale, è stato selezionato un partecipante come mediatore. Gli è stato inoltre chiesto di creare un riassunto che incorporasse al meglio le opinioni di tutti i partecipanti. Ai partecipanti sono stati mostrati sia l'IA che i riassunti del mediatore ed è stato loro chiesto di valutarli.

La maggior parte dei partecipanti ha valutato i riassunti scritti dall’IA come migliori di quelli scritti dal mediatore. Il 56% dei partecipanti ha preferito le prestazioni dell’intelligenza artificiale, rispetto al 44% che ha preferito il riepilogo umano. Ai revisori esterni è stato inoltre chiesto di valutare i riassunti e hanno assegnato ai riepiloghi AI valutazioni più elevate in termini di equità, qualità e chiarezza.

Il gruppo di ricerca ha quindi reclutato un gruppo di partecipanti demograficamente rappresentativo della popolazione del Regno Unito per una riunione virtuale in municipio. In questo scenario, l’accordo di gruppo su questioni controverse è aumentato dopo aver interagito con l’IA. Questa scoperta suggerisce che gli strumenti di intelligenza artificiale, se integrati in una vera assemblea di cittadini, potrebbero rendere più semplice per i leader sviluppare proposte politiche che tengano conto delle diverse prospettive.

“Il LLM potrebbe essere utilizzato in molti modi per supportare le deliberazioni e assumere ruoli precedentemente riservati a facilitatori umani”, afferma Ethan Busby, che studia come gli strumenti di intelligenza artificiale potrebbero migliorare le società democratiche alla Brigham Young University di Provo, nello Utah. “Lo considero l’apice del lavoro in questo settore, che ha un grande potenziale per affrontare urgenti questioni sociali e politiche”. Summerfield aggiunge che l’intelligenza artificiale potrebbe persino contribuire a rendere i processi di risoluzione dei conflitti più rapidi ed efficienti.

Connessioni perse

“Applicare effettivamente queste tecnologie a esperimenti e processi deliberativi è davvero gratificante”, afferma Sammy McKinney, che studia la democrazia deliberativa e le sue interfacce con l’intelligenza artificiale all’Università di Cambridge, nel Regno Unito. Ma aggiunge che i ricercatori dovrebbero considerare attentamente il potenziale impatto dell’intelligenza artificiale sull’aspetto umano della deliberazione. “Una delle ragioni principali per sostenere le deliberazioni dei cittadini è che creano spazi specifici in cui le persone possono relazionarsi tra loro”, afferma. “Cosa perdiamo rimuovendo sempre più il contatto umano e la facilitazione umana?”

Summerfield riconosce i limiti associati a tecnologie di intelligenza artificiale come queste. “Non abbiamo addestrato il modello a intervenire nella deliberazione”, afferma, il che significa che l’affermazione del modello potrebbe contenere anche convinzioni estremiste o altre convinzioni problematiche. Aggiunge che una ricerca rigorosa sull’impatto dell’intelligenza artificiale sulla società è fondamentale per comprenderne il valore.

“Mi sembra importante procedere con cautela”, afferma McKinney, “e poi adottare misure per mitigare tali preoccupazioni, ove possibile”.

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Scholar

Scarica la bibliografia

Quellen: