Ki-Chatbot trae teóricos de la conspiración para cuestionar sus creencias

Ki-Chatbot trae teóricos de la conspiración para cuestionar sus creencias
En un estudio que se publicó el 12 de septiembre en Science
"Este trabajo cuestionó muchas literatura existente que supone que vivimos en una sociedad post -fábrica", dice Katherine Fitzgerald, quien está investigando teorías de conspiración y información errónea en la Universidad de Tecnología de Queensland en Brisbane, Australia.
Análisis anteriores han sugerido que las personas se sienten atraídas por las teorías de conspiración porque están buscando seguridad y certeza en un mundo turbulento. Pero "lo que descubrimos en este trabajo contradice esta explicación tradicional", dice el co -autor Thomas Costello, un huerto de psicología en la Universidad Americana de Washington DC. "Una de las aplicaciones potencialmente emocionantes de esta investigación es que KI podría usarse para refutar las teorías de conspiración en la vida real".
ideas dañinas
Aunque muchas teorías de conspiración casi no tienen efectos sociales, aquellos que ganan popularidad pueden "hacer daño real", dice Fitzgerald. Se refiere al ataque al Capitolio de los Estados Unidos el 6 de enero de 2021, que fue parcialmente alimentado por reclamos sobre una elección presidencial manipulada en 2020, así como la retórica antivacuna, que perjudica la aceptación de la vacunación contra Covid-19, como ejemplos.
It is possible to convince people to change their opinion, but this can be time -consuming and exhausting - and the sheer number and variety of conspiracy theories make it difficult to address the problem on a larger scale. Sin embargo, Costello y sus colegas querían examinar el potencial de los grandes modelos de voz (LLM): pueden procesar grandes cantidades de información rápidamente y generar respuestas similares a los humanos, para combatir las teorías de conspiración. "Fueron entrenados en Internet, conocen todas las teorías de conspiración y sus argumentos de mostrador, por lo que parecía ser una adición muy natural", dice Costello.
lo creas o no
Los investigadores desarrollaron un chatbot a medida que utilizó GPT-4 Turbo-the LLM del fabricante de chatgpt OpenAI, con sede en San Francisco, California, que fue entrenado de manera convincente contra las conspiraciones. Luego reclutaron a más de 1,000 participantes cuya demografía estuvo de acuerdo con el pueblo estadounidense contando en relación con características como el género y el origen étnico. Costello dice que el equipo pudo evaluar la capacidad del chatbot para refutar una variedad de conspiraciones reclutando personas con diferentes experiencias de vida y sus propias perspectivas. Se pidió a
cada participante que describiera una teoría de la conspiración para explicar por qué lo consideraban cierto y expresar la fuerza de su convicción como porcentaje. Estos detalles se compartieron con el bot de chat, que luego tuvo una conversación con el participante, en la que citó información y evidencia que socavó o refutó la conspiración y reaccionó a las preguntas del participante. Las respuestas del chatbot fueron minuciosas y detalladas y a menudo alcanzaron cientos de palabras. En promedio, cada conversación tomó unos 8 minutos.
El enfoque resultó ser efectivo: la autoconfianza de los participantes en su teoría de conspiración elegida cayó en promedio en un 21 %después de que interactuaron con el bot de chat. Y el 25 % de los participantes cambiaron de alta confianza (más del 50 %) a la incertidumbre. El cambio apenas se notó para los grupos de control, que hablaban sobre un tema similar con el mismo bot. Un examen de seguimiento dos meses después mostró que el cambio de perspectiva continuó con muchos participantes.
Aunque los resultados del estudio son prometedores, los investigadores señalan que a los participantes se les paga a los participantes de la encuesta y que pueden no ser representativos de personas que están profundamente involucradas en las teorías de conspiración.
intervención efectiva
Fitzgerald está entusiasmado con el potencial de la IA para actuar contra las conspiraciones. "Si podemos encontrar una manera de prevenir la violencia fuera de línea, eso siempre es algo bueno", dice ella. Sugiere que los exámenes de seguimiento podrían examinar varias métricas para evaluar la efectividad del chatbot o que el estudio podría repetirse utilizando LLM con medidas de seguridad menos avanzadas para garantizar que no intensifiquen el pensamiento conspirador.
Estudios anteriores han expresado su preocupación sobre la tendencia de los chatbots de IA a "alucinar" información incorrecta. Sin embargo, el estudio se aseguró de evitar esta posibilidad: el equipo de Costello le pidió a un probador de objetivos profesionales que evalúe la precisión de la información proporcionada por el chatbot, que confirmó que ninguna de las declaraciones era incorrecta o políticamente sesgada.
Costello dice que el equipo está planeando más experimentos para probar varias estrategias del chatbot, por ejemplo, para examinar qué sucede cuando las respuestas de los chatbots son groseras. Esperan aprender más sobre lo que hizo que este estudio especial fuera tan exitoso a través de la identificación "de los experimentos en los que la condena ya no funciona".
-
Costello, T. H., Pennycook, G. y Rand, D. G. Science 385 , EADQ1814 (2024).