Το εργαλείο AI προωθεί τον διάλογο μεταξύ ατόμων με αντίθετες απόψεις
Ένα εργαλείο που υποστηρίζεται από την ΑΙ βοηθά τα άτομα με διαφορετικές απόψεις να βρουν κοινές απόψεις και έτσι προωθούν το διάλογο.

Το εργαλείο AI προωθεί τον διάλογο μεταξύ ατόμων με αντίθετες απόψεις
Ένα εργαλείο που μοιάζει με chatbot που τροφοδοτείται από την τεχνητή νοημοσύνη (AI) μπορεί να βοηθήσει τα άτομα με διαφορετικές απόψεις να βρουν τομείς συμφωνίας. Αυτό φαίνεται από ένα πείραμα με ομάδες συζήτησης στο διαδίκτυο.
Το μοντέλο, που αναπτύχθηκε από την Google DeepMind στο Λονδίνο, ήταν σε θέση να συνθέσει αποκλίνουσες απόψεις και να παράγει περιλήψεις της θέσης κάθε ομάδας που έλαβε υπόψη τις διαφορετικές προοπτικές. Οι συμμετέχοντες προτιμούσαν τις περιλήψεις που δημιουργήθηκαν από το AI σε σχέση με εκείνες που γράφτηκαν από ανθρώπινους μεσολαβητές. Αυτό υποδηλώνει ότι τέτοια εργαλεία θα μπορούσαν να χρησιμοποιηθούν για την υποστήριξη σύνθετων διαβουλεύσεων. Η μελέτη δημοσιεύθηκε στις 17 Οκτωβρίου στο περιοδικό Science 1.
"Μπορείτε να το δείτε ως απόδειξη της έννοιας που μπορείτε να χρησιμοποιήσετε το AI, ιδιαίτερα τα μεγάλα γλωσσικά μοντέλα, για να εκτελέσετε μερικές από τις λειτουργίες που εκτελούνται σήμερα από τις συναυλίες πολιτών και τις δημοσκοπήσεις", λέει ο Christopher Summerfield, συν-συγγραφέας του Διευθυντή Μελέτης και Έρευνας στο Ινστιτούτο Ασφαλείας του Ηνωμένου Βασιλείου. "Οι άνθρωποι πρέπει να βρουν κοινό έδαφος επειδή η συλλογική δράση απαιτεί τη συγκατάθεση."
Συμβιβασμός
Οι δημοκρατικές πρωτοβουλίες όπως οι συνεδριάσεις του Δημαρχείου, όπου οι ομάδες ανθρώπων καλούνται να μοιραστούν τις απόψεις τους για πολιτικά ζητήματα, να εξασφαλίσουν ότι οι πολιτικοί ακούν ποικίλες προοπτικές. Ωστόσο, η κλιμάκωση αυτών των πρωτοβουλιών μπορεί να είναι δύσκολη επειδή αυτές οι συζητήσεις συχνά περιορίζονται σε μικρές ομάδες για να εξασφαλιστεί ότι ακούγονται όλες οι φωνές.
Περίεργος για την έρευνα σχετικά με τις δυνατότητες των μεγάλων γλωσσικών μοντέλων (LLMS), του Summerfield και των συναδέλφων του, ανέπτυξαν μια μελέτη για να αξιολογήσουν τον τρόπο με τον οποίο η AI θα μπορούσε να βοηθήσει τους ανθρώπους με αντιτιθέμενες απόψεις να προσεγγίσουν συμβιβασμούς.
Έκαναν μια λεπτή έκδοση του προ-εκπαιδευμένου DeepMind LLM Chinchilla, την οποία ονόμασαν "Habermas Machine", το οποίο ονομάστηκε από τον φιλόσοφο Jürgen Habermas, ο οποίος ανέπτυξε μια θεωρία για το πώς οι ορθολογικές συζητήσεις μπορούν να βοηθήσουν στην επίλυση συγκρούσεων.
Για να δοκιμάσουν το μοντέλο τους, οι ερευνητές στρατολόγησαν 439 βρετανούς κατοίκους που χωρίστηκαν σε μικρότερες ομάδες. Κάθε ομάδα συζήτησε τρία ερωτήματα σχετικά με τα βρετανικά πολιτικά ζητήματα και μοιράστηκε τις προσωπικές του απόψεις σχετικά με αυτά. Αυτές οι απόψεις τροφοδοτήθηκαν στη συνέχεια στον κινητήρα AI, ο οποίος δημιούργησε γενικές δηλώσεις που συνδυάζουν τις προοπτικές όλων των συμμετεχόντων. Οι συμμετέχοντες ήταν σε θέση να αξιολογήσουν και να επικρίνουν κάθε δήλωση, την οποία στη συνέχεια ενσωματώθηκε το AI σε μια τελική περίληψη της συλλογικής άποψης του ομίλου.
"Το μοντέλο εκπαιδεύεται για να παράγει μια δήλωση που έχει μέγιστη υποστήριξη από μια ομάδα ανθρώπων που έχουν προσφέρει εθελοντικά τις απόψεις τους", λέει ο Summerfield. "Καθώς το μοντέλο μαθαίνει ποιες είναι οι προτιμήσεις σας σχετικά με αυτές τις δηλώσεις, μπορεί στη συνέχεια να παράγει μια δήλωση που είναι πιθανότερο να ικανοποιήσει όλους".
Εκτός από το AI, ένας συμμετέχων επιλέχθηκε ως διαμεσολαβητής. Ζητήθηκε επίσης να δημιουργήσει μια περίληψη που ενσωμάτωσε καλύτερα τις απόψεις όλων των συμμετεχόντων. Οι συμμετέχοντες έδειξαν τόσο τις περιλήψεις του AI όσο και του διαμεσολαβητή και τους ζητήθηκε να τους αξιολογήσουν.
Οι περισσότεροι συμμετέχοντες αξιολόγησαν τις περιλήψεις που έγραψαν το AI ως καλύτερα από εκείνες που έγραψαν ο διαμεσολαβητής. Το 56% των συμμετεχόντων προτιμούσε την απόδοση του ΑΙ, σε σύγκριση με το 44% που προτιμούσαν την ανθρώπινη συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική συνοπτική. Οι εξωτερικοί αναθεωρητές κλήθηκαν επίσης να αξιολογήσουν τις περιλήψεις και έδωσαν στις περιλήψεις AI υψηλότερες αξιολογήσεις για δικαιοσύνη, ποιότητα και σαφήνεια.
Στη συνέχεια, η ερευνητική ομάδα προσέλαβε μια ομάδα συμμετεχόντων δημογραφικά αντιπροσωπευτική του πληθυσμού του Ηνωμένου Βασιλείου για μια εικονική συνάντηση του Δημαρχείου. Σε αυτό το σενάριο, η ομαδική συμφωνία για αμφισβητούμενα ζητήματα αυξήθηκε αφού αλληλεπιδρούν με το AI. Αυτό το εύρημα υποδηλώνει ότι τα εργαλεία AI, όταν ενσωματώνονται σε μια συνέλευση των πραγματικών πολιτών, θα μπορούσαν να διευκολύνουν τους ηγέτες να αναπτύξουν προτάσεις πολιτικής που λαμβάνουν υπόψη διαφορετικές προοπτικές.
"Το LLM θα μπορούσε να χρησιμοποιηθεί με πολλούς τρόπους για να υποστηρίξει τις συζητήσεις και να αναλάβει ρόλους που προηγουμένως δεσμεύονται για ανθρώπινους διευκολυντές", λέει ο Ethan Busby, ο οποίος μελετά τον τρόπο με τον οποίο τα εργαλεία AI θα μπορούσαν να βελτιώσουν τις δημοκρατικές κοινωνίες στο Πανεπιστήμιο Brigham Young στο Provo της Γιούτα. "Το βλέπω αυτό ως το αποκορύφωμα της εργασίας σε αυτόν τον τομέα, η οποία έχει μεγάλες δυνατότητες να αντιμετωπίσει τα πιεστικά κοινωνικά και πολιτικά ζητήματα". Το Summerfield προσθέτει ότι το AI θα μπορούσε να βοηθήσει ακόμη και να καταστήσει τις διαδικασίες επίλυσης των συγκρούσεων ταχύτερη και πιο αποτελεσματική.
Χαμένες συνδέσεις
"Η πραγματική εφαρμογή αυτών των τεχνολογιών σε εκλογικά πειράματα και διαδικασίες είναι πραγματικά ευχάριστη", λέει ο Sammy McKinney, ο οποίος μελετά τη εκλογική δημοκρατία και τις διεπαφές του με την τεχνητή νοημοσύνη στο Πανεπιστήμιο του Cambridge του Ηνωμένου Βασιλείου. Αλλά προσθέτει ότι οι ερευνητές θα πρέπει να εξετάσουν προσεκτικά τις πιθανές επιπτώσεις του ΑΙ στην ανθρώπινη πλευρά της συζήτησης. "Ένας βασικός λόγος για την υποστήριξη των συζητήσεων των πολιτών είναι ότι δημιουργούν συγκεκριμένους χώρους στους οποίους οι άνθρωποι μπορούν να σχετίζονται μεταξύ τους", λέει. «Τι χάνουμε με όλο και περισσότερο την αφαίρεση της ανθρώπινης επαφής και της ανθρώπινης διευκόλυνσης;»
Το Summerfield αναγνωρίζει τους περιορισμούς που σχετίζονται με τεχνολογίες AI όπως αυτές. "Δεν εκπαιδεύσαμε το μοντέλο για να παρέμβουμε στη συζήτηση", λέει, που σημαίνει ότι η δήλωση του μοντέλου θα μπορούσε επίσης να περιέχει εξτρεμιστικές ή άλλες προβληματικές πεποιθήσεις. Προσθέτει ότι η αυστηρή έρευνα για τον αντίκτυπο του AI στην κοινωνία είναι ζωτικής σημασίας για την κατανόηση της αξίας του.
"Μου φαίνεται σημαντικό να προχωρήσω προσεκτικά", λέει ο McKinney, "και στη συνέχεια να λάβουμε μέτρα για να μετριάσουν αυτές τις ανησυχίες όπου είναι δυνατόν."
-
Tessler, Μ.Η. et αϊ., Science 386, EADQ2852 (2024).