La herramienta AI promueve el diálogo entre personas con opiniones opuestas

La herramienta AI promueve el diálogo entre personas con opiniones opuestas
Una herramienta tipo chat compatible con la inteligencia artificial (IA) puede ayudar a las personas con diferentes puntos de vista a encontrar áreas de acuerdo. Esto se muestra en un experimento con grupos de discusión en línea.
El modelo desarrollado por Google Deepmind en Londres pudo sintetizar opiniones divergentes y crear resúmenes de la posición de cada grupo que tuvo en cuenta diferentes perspectivas. Los participantes prefirieron los resúmenes generados por la IA a los escritos por mediadores humanos. Esto indica que tales herramientas podrían usarse para admitir consultas complejas. El estudio se publicó el 17 de octubre en la revista Science 1 .
"Puede verlo como una prueba de viabilidad de que puede usar IA, especialmente modelos de idiomas grandes, para cumplir parte de la función que actualmente se cumple con las reuniones de ciudadanos y encuestas deliberativas", dice Christopher Summerfield, co -autor del Director de Estudio e Investigación del Reino Unido AI Safety. "La gente tiene que encontrar similitudes, porque la acción colectiva requiere aprobación".
Máquina de compromiso
Iniciativas democráticas como las reuniones de ciudadanos, en las que se les pide a los grupos que compartan sus opiniones sobre temas políticos, aseguran que los políticos escuchen una variedad de perspectivas. Sin embargo, la expansión de estas iniciativas puede ser difícil porque estas discusiones a menudo se limitan a pequeños grupos para garantizar que se escuchen todas las voces.
Curiosa sobre la investigación sobre las posibilidades de los modelos de idiomas grandes (LLM), Summerfield, junto con sus colegas, desarrolló un estudio para evaluar cómo la IA podría ayudar a las personas con opiniones opuestas a lograr un compromiso.
Usan una versión ajustada de la chinchilla de DeepMind LLM previamente entrenada, que llamaron "Máquina Habermas", que lleva el nombre del filósofo Jürgen Habermas, quien desarrolló una teoría de cómo las discusiones racionales pueden ayudar a resolver conflictos.
Para probar su modelo, los investigadores reclutaron a 439 residentes británicos que se dividieron en grupos más pequeños. Cada grupo discutió tres preguntas sobre temas políticos británicos y compartió sus opiniones personales. Estas opiniones fueron alimentadas a la máquina AI, que generó declaraciones generales que combinaron las perspectivas de todos los participantes. Los participantes pudieron evaluar cualquier declaración y presentar revisiones, que la IA luego incorporó en un resumen final de la perspectiva colectiva del grupo.
"El modelo está capacitado para producir una declaración respaldada por un grupo de personas que han expresado voluntariamente sus opiniones", dice Summerfield. "Dado que el modelo aprende cuáles son sus preferencias sobre estas declaraciones, puede crear una declaración que probablemente todo satisface".
Además de la IA, un participante fue seleccionado como mediador. También se le pidió que creara un resumen que mejor incluya las opiniones de todos los participantes. Los participantes recibieron los resúmenes de la IA y los del mediador y deberían evaluarlos.
La mayoría de los participantes calificaron los resúmenes escritos por la IA como mejor que los del mediador. El 56 % de los participantes prefirieron el rendimiento de la IA en comparación con el 44 % que prefería el resumen humano. También se pidió a los expertos externos que evaluaran los resúmenes y dieron al resumen de la IA más revisiones sobre la justicia, la calidad y la claridad.
El equipo de investigación reclutó a un grupo de participantes que fueron representativos demográficamente de la población británica para una reunión de ciudadanos virtuales. En este escenario, el acuerdo grupal se elevó sobre temas controvertidos después de interactuar con la IA. Esta realización sugiere que cuando se integran en una reunión de ciudadanos reales, las herramientas de IA podrían facilitar que los líderes desarrollaran propuestas políticas que tengan en cuenta diferentes perspectivas.
"El LLM podría usarse de muchas maneras para apoyar y realizar consultas que se reservaron previamente para moderadores humanos", dice Ethan Busby, quien examina cómo las herramientas de IA podrían mejorar las sociedades democráticas, en la Universidad Brigham Young en Provo, Utah. "Considero esto como la punta del trabajo en esta área, que tiene un gran potencial para abordar problemas sociales y políticos urgentes". Summerfield agrega que AI podría incluso ayudar a hacer que los procesos de resolución de conflictos sean más rápidos y eficientemente.
conexiones perdidas
"Aplicar realmente estas tecnologías en experimentos y procesos deliberativos, es realmente gratificante", dice Sammy McKinney, quien examina la democracia deliberativa y sus interfaces para la inteligencia artificial en la Universidad de Cambridge, Reino Unido. Pero agrega que los investigadores deben considerar cuidadosamente los posibles efectos de la IA en el aspecto humano de la deliberación. "Una razón principal para apoyar las deliberaciones cívicas es que crean ciertas habitaciones en las que las personas pueden relacionarse entre sí", dice. "¿Qué perdemos si eliminamos cada vez más el contacto humano y la moderación humana?"
Summerfield reconoce las restricciones asociadas con tecnologías de IA como esta. "No capacitamos al modelo para intervenir en la deliberación", dice, lo que significa que la declaración del modelo también podría contener extremistas u otras creencias problemáticas. Agrega que la investigación rigurosa sobre los efectos de la IA en la sociedad es crucial para comprender su valor.
"Actuar con cuidado, me parece importante", dice McKinney, "y luego tome medidas para mitigar estas preocupaciones cuando sea posible".
-
tessler, M.H. et al., Science 386, EADQ2852 (2024).