A ferramenta de IA promove o diálogo entre pessoas com opiniões opostas

A ferramenta de IA promove o diálogo entre pessoas com opiniões opostas
Uma ferramenta de bate -papo que é suportada pela inteligência artificial (AI) pode ajudar as pessoas com visões diferentes para encontrar áreas de acordo. Isso é mostrado por um experimento com grupos de discussão on -line.
O modelo desenvolvido pelo Google DeepMind em Londres conseguiu sintetizar opiniões divergentes e criar resumos da posição de cada grupo que levou em consideração perspectivas diferentes. Os participantes preferiram os resumos gerados pela IA àqueles escritos por mediadores humanos. Isso indica que essas ferramentas podem ser usadas para apoiar consultas complexas. O estudo foi publicado em 17 de outubro na revista Science 1 .
"Você pode vê -lo como uma prova de viabilidade de que você possa usar a IA, especialmente modelos de idiomas, para cumprir parte da função que atualmente é cumprida pelas reuniões dos cidadãos e pesquisas deliberativas", diz Christopher Summerfield, co -autor do diretor de estudo e pesquisa da AI do Reino Unido. "As pessoas precisam encontrar semelhanças, porque a ação coletiva requer aprovação".
Máquina de compromisso
Iniciativas democráticas, como as reuniões dos cidadãos, nas quais os grupos são solicitados a compartilhar suas opiniões sobre questões políticas, garantem que os políticos ouçam uma variedade de perspectivas. No entanto, a expansão dessas iniciativas pode ser difícil porque essas discussões geralmente são limitadas a pequenos grupos para garantir que todas as vozes sejam ouvidas.
Curioso sobre pesquisas sobre as possibilidades de grandes modelos de idiomas (LLMS), Summerfield, juntamente com seus colegas, desenvolveram um estudo para avaliar como a IA poderia ajudar as pessoas com opiniões opostas a alcançar um compromisso.
Eles usam uma versão ajustada da Chinchilla de Deepmind LLM pré-treinada, que eles chamavam de "Habermas Machine", em homenagem ao filósofo Jürgen Habermas, que desenvolveu uma teoria de como as discussões racionais podem ajudar a resolver conflitos.
Para testar seu modelo, os pesquisadores recrutaram 439 residentes britânicos divididos em grupos menores. Cada grupo discutiu três perguntas sobre questões políticas britânicas e compartilhou suas opiniões pessoais. Essas opiniões foram então alimentadas com a máquina de IA, que gerou declarações abrangentes que combinavam as perspectivas de todos os participantes. Os participantes conseguiram avaliar qualquer declaração e enviar revisões, que a IA incorporou em um resumo final da perspectiva coletiva do grupo.
"O modelo é treinado para produzir uma declaração que é apoiada por um grupo de pessoas que expressaram voluntariamente suas opiniões", diz Summerfield. "Como o modelo aprende quais são suas preferências sobre essas declarações, ele pode criar uma declaração que provavelmente todos satisfazem".Além da IA, um participante foi selecionado como mediador. Ele também foi convidado a criar um resumo de que melhor inclua as vistas de todos os participantes. Os participantes receberam os resumos da IA e os do mediador e devem avaliá -los.
A maioria dos participantes classificou os resumos escritos pela IA como melhor do que os do mediador. 56 % dos participantes preferiram o desempenho da IA em comparação com 44 % que preferiram o resumo humano. Especialistas externos também foram solicitados a avaliar os resumos e deram revisões mais altas do resumo da IA sobre justiça, qualidade e clareza.
A equipe de pesquisa então recrutou um grupo de participantes que eram demograficamente representativos da população britânica para uma reunião de cidadãos virtuais. Nesse cenário, o acordo de grupo subiu sobre tópicos controversos após a interação com a IA. Essa percepção sugere que, quando eles são integrados a uma reunião de cidadãos reais, as ferramentas de IA poderão facilitar os líderes a desenvolver propostas políticas que levam em consideração diferentes perspectivas.
"O LLM poderia ser usado de várias maneiras para apoiar e receber consultas anteriormente reservadas para moderadores humanos", diz Ethan Busby, que examina como as ferramentas de IA poderiam melhorar as sociedades democráticas, na Universidade Brigham Young em Provo, Utah. "Considero isso a ponta do trabalho nesta área, que tem um grande potencial para combater problemas sociais e políticos urgentes". Summerfield acrescenta que a IA pode até ajudar a tornar os processos de resolução de conflitos mais rapidamente e eficientemente.
conexões perdidas
"Para realmente aplicar essas tecnologias em experimentos e processos deliberativos, é realmente gratificante", diz Sammy McKinney, que examina a democracia deliberativa e suas interfaces para inteligência artificial na Universidade de Cambridge, Reino Unido. Mas ele acrescenta que os pesquisadores devem considerar cuidadosamente os efeitos potenciais da IA no aspecto humano da deliberação. "Um dos principais motivos para apoiar as deliberações cívicas é que elas criam certas salas nas quais as pessoas podem se relacionar", diz ele. "O que perdemos se estamos cada vez mais removendo o contato humano e a moderação humana?"
Summerfield reconhece as restrições associadas a tecnologias de IA como essa. "Não treinamos o modelo para intervir na deliberação", diz ele, o que significa que a declaração do modelo também pode conter crenças extremistas ou outras crenças problemáticas. Ele acrescenta que pesquisas rigorosas sobre os efeitos da IA na sociedade são cruciais para entender seu valor.
"Atuar com cuidado, me parece importante", diz McKinney, "e depois tomar medidas para mitigar essas preocupações sempre que possível".
- >
- >>
Tessler, M.H. et al., Science 386, EADQ2852 (2024).