Herramienta de IA promueve el diálogo entre personas con opiniones opuestas

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Una herramienta basada en IA ayuda a personas con opiniones diferentes a encontrar puntos de vista comunes y, por tanto, promueve el diálogo.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Una herramienta basada en IA ayuda a personas con opiniones diferentes a encontrar puntos de vista comunes y, por tanto, promueve el diálogo.

Herramienta de IA promueve el diálogo entre personas con opiniones opuestas

Una herramienta similar a un chatbot impulsada por inteligencia artificial (IA) puede ayudar a personas con diferentes puntos de vista a encontrar áreas de acuerdo. Así lo demuestra un experimento con grupos de discusión en línea.

El modelo, desarrollado por Google DeepMind en Londres, fue capaz de sintetizar opiniones divergentes y producir resúmenes de la posición de cada grupo que tenían en cuenta diferentes perspectivas. Los participantes prefirieron los resúmenes generados por IA a los escritos por mediadores humanos. Esto sugiere que tales herramientas podrían usarse para respaldar consultas complejas. El estudio fue publicado el 17 de octubre en la revista Science. 1.

"Puede verse como una prueba de concepto de que se puede utilizar la IA, en particular modelos de lenguaje grandes, para realizar algunas de las funciones que actualmente desempeñan las asambleas ciudadanas y las encuestas deliberativas", afirma Christopher Summerfield, coautor del estudio y director de investigación del Instituto de Seguridad de la IA del Reino Unido. "La gente necesita encontrar puntos en común porque la acción colectiva requiere consentimiento".

maquina de compromiso

Las iniciativas democráticas, como las reuniones públicas, en las que se pide a grupos de personas que compartan sus opiniones sobre cuestiones políticas, garantizan que los políticos escuchen una variedad de perspectivas. Sin embargo, ampliar estas iniciativas puede resultar difícil porque estos debates a menudo se limitan a grupos pequeños para garantizar que se escuchen todas las voces.

Curiosos por la investigación sobre las posibilidades de los grandes modelos lingüísticos (LLM), Summerfield y sus colegas desarrollaron un estudio para evaluar cómo la IA podría ayudar a las personas con opiniones opuestas a llegar a un acuerdo.

Implementaron una versión perfeccionada de DeepMind LLM Chinchilla previamente entrenada, a la que llamaron "Máquina Habermas", en honor al filósofo Jürgen Habermas, quien desarrolló una teoría de cómo las discusiones racionales pueden ayudar a resolver conflictos.

Para probar su modelo, los investigadores reclutaron a 439 residentes británicos que se dividieron en grupos más pequeños. Cada grupo discutió tres preguntas sobre cuestiones políticas británicas y compartió sus opiniones personales al respecto. Luego, estas opiniones se introdujeron en el motor de inteligencia artificial, que generó declaraciones generales que combinaron las perspectivas de todos los participantes. Los participantes pudieron calificar y criticar cada afirmación, que luego la IA incorporó en un resumen final de la visión colectiva del grupo.

"El modelo está entrenado para producir una declaración que tenga el máximo apoyo de un grupo de personas que han ofrecido sus opiniones voluntariamente", dice Summerfield. "A medida que el modelo aprende cuáles son sus preferencias sobre estas declaraciones, puede producir una declaración que probablemente satisfaga a todos".

Además de la IA, se seleccionó a un participante como mediador. También se le pidió que creara un resumen que incorporara mejor las opiniones de todos los participantes. A los participantes se les mostró tanto la IA como los resúmenes del mediador y se les pidió que los calificaran.

La mayoría de los participantes calificaron los resúmenes escritos por la IA como mejores que los escritos por el mediador. El 56% de los participantes prefirió el rendimiento de la IA, en comparación con el 44% que prefirió el resumen humano. También se pidió a revisores externos que evaluaran los resúmenes y otorgaron a los resúmenes de IA calificaciones más altas en cuanto a imparcialidad, calidad y claridad.

Luego, el equipo de investigación reclutó a un grupo de participantes demográficamente representativos de la población del Reino Unido para una reunión pública virtual. En este escenario, el acuerdo del grupo sobre temas polémicos aumentó después de que interactuaron con la IA. Este hallazgo sugiere que las herramientas de IA, cuando se integran en una asamblea ciudadana real, podrían facilitar que los líderes desarrollen propuestas de políticas que tengan en cuenta diversas perspectivas.

“El LLM podría usarse de muchas maneras para apoyar las deliberaciones y asumir roles previamente reservados para los facilitadores humanos”, dice Ethan Busby, quien estudia cómo las herramientas de inteligencia artificial podrían mejorar las sociedades democráticas en la Universidad Brigham Young en Provo, Utah. "Veo esto como el pináculo del trabajo en esta área, que tiene un gran potencial para abordar cuestiones sociales y políticas urgentes". Summerfield añade que la IA podría incluso ayudar a que los procesos de resolución de conflictos sean más rápidos y eficientes.

Conexiones perdidas

“En realidad, aplicar estas tecnologías a experimentos y procesos deliberativos es realmente gratificante”, afirma Sammy McKinney, que estudia la democracia deliberativa y sus interfaces con la inteligencia artificial en la Universidad de Cambridge, Reino Unido. Pero añade que los investigadores deberían considerar cuidadosamente el impacto potencial de la IA en el aspecto humano de la deliberación. "Una razón clave para apoyar las deliberaciones ciudadanas es que crean espacios específicos en los que las personas pueden relacionarse entre sí", afirma. “¿Qué perdemos al eliminar cada vez más el contacto humano y la facilitación humana?”

Summerfield reconoce las limitaciones asociadas con tecnologías de inteligencia artificial como estas. "No entrenamos al modelo para intervenir en la deliberación", dice, lo que significa que la declaración del modelo también podría contener creencias extremistas u otras creencias problemáticas. Añade que una investigación rigurosa sobre el impacto de la IA en la sociedad es crucial para comprender su valor.

"Me parece importante proceder con cautela", dice McKinney, "y luego tomar medidas para mitigar esas preocupaciones cuando sea posible".

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Académico

Descargar bibliografía

Quellen: