Το εργαλείο AI προωθεί τον διάλογο μεταξύ ατόμων με αντιτιθέμενες απόψεις

Ένα εργαλείο που υποστηρίζεται από την ΑΙ βοηθά τα άτομα με διαφορετικές απόψεις για να βρουν κοινές απόψεις και έτσι να προωθήσουν το διάλογο.
(Symbolbild/natur.wiki)

Το εργαλείο AI προωθεί τον διάλογο μεταξύ ατόμων με αντιτιθέμενες απόψεις

Ένα εργαλείο συνομιλίας που υποστηρίζεται από την τεχνητή νοημοσύνη (AI) μπορεί να βοηθήσει τους ανθρώπους με διαφορετικές απόψεις για να βρουν τομείς συμφωνίας. Αυτό φαίνεται από ένα πείραμα με ομάδες συζήτησης στο διαδίκτυο.

Το μοντέλο που αναπτύχθηκε από την Google DeepMind στο Λονδίνο ήταν σε θέση να συνθέσει αποκλίνουσες απόψεις και να δημιουργήσει περιλήψεις της θέσης κάθε ομάδας που έλαβε υπόψη διαφορετικές προοπτικές. Οι συμμετέχοντες προτιμούσαν τις περιλήψεις που προέκυψαν από το AI σε εκείνους που γράφτηκαν από ανθρώπινους διαμεσολαβητές. Αυτό δείχνει ότι τέτοια εργαλεία θα μπορούσαν να χρησιμοποιηθούν για την υποστήριξη σύνθετων διαβουλεύσεων. Η μελέτη δημοσιεύθηκε στις 17 Οκτωβρίου στο περιοδικό Science

"Μπορείτε να το δείτε ως απόδειξη της σκοπιμότητας που μπορείτε να χρησιμοποιήσετε το AI, ειδικά τα μεγάλα γλωσσικά μοντέλα, για να εκπληρώσετε μέρος της λειτουργίας που εκπληρώνονται επί του παρόντος από τις συναντήσεις των πολιτών και τις συνειδητικές έρευνες", λέει ο Christopher Summerfield, συνεργάτης του διευθυντή μελέτης και έρευνας στην ασφάλεια του Ηνωμένου Βασιλείου. "Οι άνθρωποι πρέπει να βρουν ομοιότητες, επειδή η συλλογική δράση απαιτεί έγκριση."

Μηχανή συμβιβασμού

Δημοκρατικές πρωτοβουλίες όπως οι συνεδριάσεις των πολιτών, στις οποίες οι ομάδες καλούνται να μοιραστούν τις απόψεις τους σχετικά με τα πολιτικά ζητήματα, να εξασφαλίσουν ότι οι πολιτικοί ακούν ποικίλες προοπτικές. Ωστόσο, η επέκταση αυτών των πρωτοβουλιών μπορεί να είναι δύσκολη επειδή αυτές οι συζητήσεις συχνά περιορίζονται σε μικρές ομάδες για να εξασφαλιστεί ότι ακούγονται όλες οι φωνές.

Περίεργος για την έρευνα σχετικά με τις δυνατότητες των μεγάλων γλωσσικών μοντέλων (LLMS), Summerfield, μαζί με τους συναδέλφους του, ανέπτυξαν μια μελέτη για να αξιολογήσουν τον τρόπο με τον οποίο η AI θα μπορούσε να βοηθήσει τους ανθρώπους με αντίθετες απόψεις να επιτύχουν έναν συμβιβασμό.

Χρησιμοποιούν μια λεπτή εκδοχή της προ-εκπαιδευμένης DeepMind LLM Chinchilla, την οποία ονόμασαν "Habermas Machine", που ονομάστηκε από τον φιλόσοφο Jürgen Habermas, ο οποίος ανέπτυξε μια θεωρία για το πώς οι ορθολογικές συζητήσεις μπορούν να βοηθήσουν στην επίλυση συγκρούσεων.

Για να δοκιμάσουν το μοντέλο τους, οι ερευνητές στρατολόγησαν 439 βρετανούς κατοίκους που χωρίστηκαν σε μικρότερες ομάδες. Κάθε ομάδα συζήτησε τρία ερωτήματα σχετικά με τα βρετανικά πολιτικά ζητήματα και μοιράστηκε τις προσωπικές του απόψεις. Αυτές οι απόψεις τροφοδοτήθηκαν στη συνέχεια στο μηχάνημα AI, το οποίο δημιούργησε γενικές δηλώσεις που συνδυάζουν τις προοπτικές όλων των συμμετεχόντων. Οι συμμετέχοντες ήταν σε θέση να αξιολογήσουν οποιαδήποτε δήλωση και να υποβάλουν κριτικές, τις οποίες στη συνέχεια ενσωματώθηκε το AI σε μια τελική περίληψη της συλλογικής προοπτικής του ομίλου.

"Το μοντέλο εκπαιδεύεται για να παράγει μια δήλωση που υποστηρίζεται από μια ομάδα ανθρώπων που έχουν εκφράσει οικειοθελώς τις απόψεις τους", λέει ο Summerfield. "Δεδομένου ότι το μοντέλο μαθαίνει ποιες είναι οι προτιμήσεις σας σχετικά με αυτές τις δηλώσεις, μπορεί στη συνέχεια να δημιουργήσει μια δήλωση που πιθανότατα ικανοποιεί".

Εκτός από το AI, ένας συμμετέχων επιλέχθηκε ως διαμεσολαβητής. Ζητήθηκε επίσης να δημιουργήσει μια περίληψη που περιλαμβάνει καλύτερα τις απόψεις όλων των συμμετεχόντων. Οι συμμετέχοντες έλαβαν τόσο τις περιλήψεις του AI όσο και εκείνων του διαμεσολαβητή και θα πρέπει να τις αξιολογήσουν.

Οι περισσότεροι συμμετέχοντες αξιολόγησαν τις περιλήψεις που έγραψαν το AI ως καλύτερο από εκείνες του διαμεσολαβητή. Το 56 % των συμμετεχόντων προτιμούσε την απόδοση του ΑΙ σε σύγκριση με το 44 % που προτιμούσε την ανθρώπινη περίληψη. Εξωτερικοί εμπειρογνώμονες κλήθηκαν επίσης να αξιολογήσουν τις περιλήψεις και έδωσαν την περίληψη AI υψηλότερες αναθεωρήσεις σχετικά με τη δικαιοσύνη, την ποιότητα και τη σαφήνεια.

Η ερευνητική ομάδα προσλήφθηκε στη συνέχεια μια ομάδα συμμετεχόντων που ήταν δημογραφικά αντιπροσωπευτικοί του βρετανικού πληθυσμού για μια συνάντηση εικονικών πολιτών. Σε αυτό το σενάριο, η συμφωνία ομάδας αυξήθηκε σε αμφιλεγόμενα θέματα μετά από αλληλεπίδραση με το AI. Αυτή η συνειδητοποίηση υποδηλώνει ότι όταν ενσωματώνονται σε μια πραγματική συνάντηση των πολιτών, τα εργαλεία AI θα μπορούσαν να διευκολύνουν τους ηγέτες να αναπτύξουν πολιτικές προτάσεις που λαμβάνουν υπόψη διαφορετικές προοπτικές.

"Το LLM θα μπορούσε να χρησιμοποιηθεί με πολλούς τρόπους για να υποστηρίξει και να αναλάβει διαβουλεύσεις που προηγουμένως προορίζονταν για ανθρώπινους συντονιστές", λέει ο Ethan Busby, ο οποίος εξετάζει πώς τα εργαλεία AI θα μπορούσαν να βελτιώσουν τις δημοκρατικές κοινωνίες, στο Brigham Young University στο Provo της Γιούτα. "Θεωρώ αυτό ως την κορυφή του έργου σε αυτόν τον τομέα, η οποία έχει μεγάλες δυνατότητες να αντιμετωπίσει επείγοντα κοινωνικά και πολιτικά προβλήματα". Το Summerfield προσθέτει ότι το AI θα μπορούσε να βοηθήσει ακόμη και να καταστήσει τις διαδικασίες επίλυσης των συγκρούσεων γρηγορότερα και πιο αποτελεσματικά.

Lost Connections

"Για να εφαρμόσει πραγματικά αυτές τις τεχνολογίες σε πειράματα και διαδικασίες που είναι πραγματικά ευχάριστα, είναι πραγματικά ευχάριστη", λέει ο Sammy McKinney, ο οποίος εξετάζει τη συνειδητοποιητική δημοκρατία και τις διεπαφές της για την τεχνητή νοημοσύνη στο Πανεπιστήμιο του Cambridge του Ηνωμένου Βασιλείου. Αλλά προσθέτει ότι οι ερευνητές θα πρέπει να εξετάσουν προσεκτικά τις πιθανές επιδράσεις του ΑΙ στην ανθρώπινη πλευρά της συζήτησης. "Ένας κύριος λόγος για να υποστηρίξουμε τις συζητήσεις των πολιτών είναι ότι δημιουργούν ορισμένα δωμάτια στα οποία οι άνθρωποι μπορούν να σχετίζονται μεταξύ τους", λέει. "Τι χάνουμε αν απομακρύνουμε όλο και περισσότερο την ανθρώπινη επαφή και την ανθρώπινη μετριοπάθεια;"

Το Summerfield αναγνωρίζει τους περιορισμούς που σχετίζονται με τις τεχνολογίες AI όπως αυτό. "Δεν εκπαιδεύσαμε το μοντέλο για να παρέμβουμε στη συζήτηση", λέει, πράγμα που σημαίνει ότι η δήλωση του μοντέλου θα μπορούσε επίσης να περιέχει εξτρεμιστικές ή άλλες προβληματικές πεποιθήσεις. Προσθέτει ότι η αυστηρή έρευνα σχετικά με τις επιπτώσεις του AI στην κοινωνία είναι ζωτικής σημασίας για την κατανόηση της αξίας του.

"Για να ενεργήσετε προσεκτικά, μου φαίνεται σημαντικό", λέει ο McKinney, "και στη συνέχεια να λάβετε μέτρα για να μετριάσετε αυτές τις ανησυχίες όπου είναι δυνατόν."

  1. >

    tessler, m.h. et αϊ., Science 386, EADQ2852 (2024).

    google scholar"-track-value = "Αναφορά Google Scholar"-track-label = "σύνδεσμος" data-track-item_id = "http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=tessler%2cm.h.">
    Google Scholar

  2. "https://citation-needr.springer.com/v2/references/1038/d41586-03424-z?format=refman&flavour=references"> Λήψη λίστας βιβλιογραφίας