L'outil d'IA favorise le dialogue entre les personnes avec des opinions opposées

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Un outil soutenu par l'IA aide les personnes ayant des opinions différentes à trouver des points de vue communs et ainsi à promouvoir le dialogue. (Symbolbild/natur.wiki)

L'outil d'IA favorise le dialogue entre les personnes avec des opinions opposées

Un outil en forme de chat qui est soutenu par l'intelligence artificielle (IA) peut aider les personnes ayant des opinions différentes pour trouver des domaines d'accord. Ceci est montré par une expérience avec des groupes de discussion en ligne.

Le modèle développé par Google Deepmind à Londres a pu synthétiser des opinions divergentes et créer des résumés de la position de chaque groupe qui a pris en compte différentes perspectives. Les participants ont préféré les résumés générés par l'IA à ceux écrits par des médiateurs humains. Cela indique que de tels outils pourraient être utilisés pour soutenir des consultations complexes. L'étude a été publiée le 17 octobre dans le magazine Science 1 .

"Vous pouvez le voir comme une preuve de faisabilité que vous pouvez utiliser l'IA, en particulier les modèles de langage, pour remplir une partie de la fonction qui est actuellement remplie par les réunions des citoyens et les enquêtes délibératives", explique Christopher Summerfield, co-auteur de l'étude et directeur de recherche à la UK AI Safety. "Les gens doivent trouver des similitudes, car l'action collective nécessite l'approbation."

Machine de compromis

Les initiatives démocratiques telles que les réunions des citoyens, dans lesquelles des groupes sont invités à partager leurs opinions sur les questions politiques, garantir que les politiciens entendent une variété de perspectives. Cependant, l'expansion de ces initiatives peut être difficile car ces discussions sont souvent limitées aux petits groupes pour s'assurer que toutes les voix sont entendues.

Curieux de la recherche sur les possibilités des modèles de grande langue (LLMS), Summerfield, avec ses collègues, a développé une étude pour évaluer comment l'IA pourrait aider les personnes ayant des opinions opposées pour parvenir à un compromis.

Ils utilisent une version affinée de la chinchilla LLM Deepmind pré-formée, qu'ils ont appelée "Habermas Machine", du nom du philosophe Jürgen Habermas, qui a développé une théorie de la façon dont les discussions rationnelles peuvent aider à résoudre les conflits.

Pour tester leur modèle, les chercheurs ont recruté 439 résidents britanniques divisés en petits groupes. Chaque groupe a discuté de trois questions sur les questions politiques britanniques et a partagé ses opinions personnelles. Ces opinions ont ensuite été introduites dans la machine AI, qui a généré des déclarations globales qui combinaient les perspectives de tous les participants. Les participants ont pu évaluer toute déclaration et soumettre des examens, que l'IA a ensuite intégrés à un résumé final de la perspective collective du groupe.

"Le modèle est formé pour produire une déclaration soutenue par un groupe de personnes qui ont volontairement exprimé leurs opinions", explique Summerfield. "Étant donné que le modèle apprend quelles sont vos préférences sur ces déclarations, elle peut alors créer une déclaration qui satisfait très probablement."

En plus de l'IA, un participant a été sélectionné comme médiateur. Il a également été invité à créer un résumé qui inclut le mieux les vues de tous les participants. Les participants ont reçu à la fois les résumés de l'IA et ceux du médiateur et devraient les évaluer.

La plupart des participants ont évalué les résumés écrits par l'IA comme meilleurs que ceux du médiateur. 56% des participants ont préféré les performances de l'IA, contre 44% qui préféraient le résumé humain. Des experts externes ont également été invités à évaluer les résumés et ont donné au résumé des examens plus élevés concernant la justice, la qualité et la clarté.

L'équipe de recherche a ensuite recruté un groupe de participants qui étaient représentatifs démographiquement de la population britannique pour une réunion des citoyens virtuels. Dans ce scénario, l'accord de groupe a augmenté sur des sujets controversés après avoir interagi avec l'IA. Cette prise de conscience suggère que lorsqu'ils sont intégrés à une réunion de véritables citoyens, les outils d'IA pourraient faciliter la mise en compte des propositions politiques qui prennent en compte différentes perspectives.

"Le LLM pourrait être utilisé de nombreuses manières pour soutenir et entreprendre des consultations qui étaient auparavant réservées aux modérateurs humains", explique Ethan Busby, qui examine comment les outils d'IA pourraient améliorer les sociétés démocratiques, à la Brigham Young University à Provo, Utah. "Je considère cela comme la pointe du travail dans ce domaine, qui a un grand potentiel pour résoudre les problèmes sociaux et politiques urgents." Summerfield ajoute que l'IA pourrait même aider à rendre les processus de résolution des conflits plus rapidement et plus efficacement.

Connexions perdues

"Pour appliquer ces technologies dans des expériences et des processus délibératifs, est vraiment gratifiant", explique Sammy McKinney, qui examine la démocratie délibérative et ses interfaces pour l'intelligence artificielle à l'Université de Cambridge, au Royaume-Uni. Mais il ajoute que les chercheurs devraient soigneusement considérer les effets potentiels de l'IA sur l'aspect humain de la délibération. "Une raison principale de soutenir les délibérations civiques est qu'ils créent certaines pièces dans lesquelles les gens peuvent se rapporter les uns aux autres", dit-il. "Que perdons-nous si nous supprimons de plus en plus le contact humain et la modération humaine?"

Summerfield reconnaît les restrictions associées aux technologies de l'IA comme celle-ci. "Nous n'avons pas formé le modèle à intervenir dans la délibération", dit-il, ce qui signifie que la déclaration du modèle pourrait également contenir des croyances extrémistes ou d'autres problèmes. Il ajoute que des recherches rigoureuses sur les effets de l'IA sur la société sont cruciales pour comprendre sa valeur.

"Agir soigneusement, me semble important", dit McKinney, "puis prendre des mesures pour atténuer ces préoccupations lorsque cela est possible."

  1. Tessler, M.H. et al., Science 386, EADQ2852 (2024).

    google scholar Reference" Data-Track-Value = "Google Scholar Reference" Data-Track-Label = "Link" Data-Track-Item_ID = "Nofollow Noopener" Aria Label = "Google Scholar Reference 1" HREF = "http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=tessler%2cm.h.">
    Google Scholar

  2. Télécharger la liste de littérature