Los investigadores han demostrado que la inteligencia artificial (IA) podría ser una herramienta valiosa en la lucha contra las teorías de la conspiración. Desarrollaron un chatbot que puede refutar información falsa y animar a las personas a cuestionar su forma de pensar.
En un estudio publicado el 12 de septiembre enCienciafue publicado 1, los participantes pasaron unos minutos con el chatbot brindando respuestas y argumentos detallados, lo que resultó en un cambio de pensamiento que duró varios meses. Este resultado sugiere que los hechos y las pruebas pueden efectivamente cambiar la opinión de las personas.
"Este trabajo cuestionó gran parte de la literatura existente que supone que vivimos en una sociedad de posverdad", dice Katherine FitzGerald, que investiga teorías de conspiración y desinformación en la Universidad Tecnológica de Queensland en Brisbane, Australia.
Análisis anteriores han sugerido que las personas se sienten atraídas por las teorías de la conspiración porque buscan seguridad y certeza en un mundo turbulento. Pero "lo que descubrimos en este trabajo contradice esta explicación tradicional", dice el coautor Thomas Costello, investigador de psicología de la Universidad Americana en Washington DC. "Una de las aplicaciones potencialmente interesantes de esta investigación es que la IA podría utilizarse para desacreditar teorías de conspiración en la vida real".
Ideas dañinas
Aunque muchas teorías de conspiración tienen poco impacto social, las que ganan popularidad pueden "causar un daño real", dice FitzGerald. Señala como ejemplos el ataque al Capitolio de Estados Unidos el 6 de enero de 2021, que fue impulsado en parte por acusaciones de elecciones presidenciales amañadas de 2020, así como la retórica antivacunas que perjudicó la aceptación de la vacuna COVID-19.
Es posible persuadir a la gente para que cambie de opinión, pero hacerlo puede llevar mucho tiempo y ser estresante, y el gran número y variedad de teorías de conspiración dificulta abordar el problema a mayor escala. Pero Costello y sus colegas querían explorar el potencial de los grandes modelos de lenguaje (LLM), que pueden procesar rápidamente grandes cantidades de información y generar respuestas similares a las humanas, para combatir las teorías de la conspiración. "Han sido entrenados en Internet y conocen todas las teorías de conspiración y sus contraargumentos, por lo que parecía una opción muy natural", dice Costello.
Por extraño que parezca
Los investigadores desarrollaron un chatbot personalizado utilizando GPT-4 Turbo, el último LLM de OpenAI, creador de ChatGPT con sede en San Francisco, California, que fue entrenado para argumentar de manera convincente contra las conspiraciones. Luego reclutaron a más de 1.000 participantes cuyas características demográficas coincidían con las del censo de EE. UU. en características como género y origen étnico. Costello dice que al reclutar "personas con diferentes experiencias de vida y sus propias perspectivas", el equipo pudo evaluar la capacidad del chatbot para desacreditar una variedad de conspiraciones.
Se pidió a cada participante que describiera una teoría de la conspiración, explicara por qué creían que era cierta y expresara la fuerza de su creencia como porcentaje. Estos detalles se compartieron con el chatbot, que luego entabló una conversación con el participante, citando información y evidencia que socavaban o refutaban la conspiración, y respondía a las preguntas del participante. Las respuestas del chatbot fueron exhaustivas y detalladas, y a menudo llegaron a cientos de palabras. En promedio, cada conversación duró unos 8 minutos.
El enfoque resultó eficaz: la confianza de los participantes en la teoría de la conspiración elegida cayó en promedio un 21% después de interactuar con el chatbot. Y el 25% de los participantes pasó de una alta confianza (más del 50%) a la incertidumbre. Sin embargo, el cambio apenas se notó en los grupos de control que hablaron con el mismo chatbot sobre un tema similar. Un estudio de seguimiento dos meses después mostró que el cambio de perspectiva continuó para muchos participantes.
Aunque los resultados del estudio son prometedores, los investigadores señalan que los participantes eran encuestadores pagados y pueden no ser representativos de personas profundamente inmersas en teorías de conspiración.
Intervención efectiva
FitzGerald está entusiasmado con el potencial de la IA para combatir las conspiraciones. "Si podemos encontrar una manera de prevenir la violencia fuera de línea, siempre es algo bueno", afirma. Ella sugiere que la investigación de seguimiento podría examinar diferentes métricas para evaluar la efectividad del chatbot, o el estudio podría repetirse utilizando LLM con medidas de seguridad menos avanzadas para garantizar que no refuercen el pensamiento conspirativo.
Estudios anteriores han planteado preocupaciones sobre la tendencia de los chatbots de IA a "alucinar" información falsa. Sin embargo, el estudio tuvo cuidado de evitar esta posibilidad: el equipo de Costello pidió a un verificador de datos profesional que evaluara la exactitud de la información proporcionada por el chatbot, quien confirmó que ninguna de las declaraciones era falsa o políticamente sesgada.
Costello dice que el equipo planea realizar más experimentos para probar diferentes estrategias del chatbot, como estudiar qué sucede cuando las respuestas del chatbot son groseras. Al identificar "los experimentos en los que la creencia ya no funciona", esperan aprender más sobre lo que hizo que este estudio en particular fuera tan exitoso.