AI-verktyg främjar dialog mellan människor med motsatta åsikter

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Ett AI-stödt verktyg hjälper människor med olika åsikter att hitta gemensamma synpunkter och främjar därmed dialog.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Ett AI-stödt verktyg hjälper människor med olika åsikter att hitta gemensamma synpunkter och främjar därmed dialog.

AI-verktyg främjar dialog mellan människor med motsatta åsikter

Ett chatbot-liknande verktyg som drivs av artificiell intelligens (AI) kan hjälpa människor med olika åsikter att hitta områden där de är överens. Det visar ett experiment med diskussionsgrupper online.

Modellen, utvecklad av Google DeepMind i London, kunde syntetisera olika åsikter och producera sammanfattningar av varje grupps ståndpunkt som tog hänsyn till olika perspektiv. Deltagarna föredrog de AI-genererade sammanfattningarna framför de som skrevs av mänskliga medlare. Detta tyder på att sådana verktyg skulle kunna användas för att stödja komplexa samråd. Studien publicerades den 17 oktober i tidskriften Science 1.

"Du kan se det som ett bevis på att du kan använda AI, särskilt stora språkmodeller, för att utföra en del av de funktioner som för närvarande utförs av medborgarförsamlingar och deliberativa omröstningar", säger Christopher Summerfield, medförfattare till studien och forskningschef vid UK AI Safety Institute. "Människor måste hitta en gemensam grund eftersom kollektiva åtgärder kräver samtycke."

Kompromissa maskin

Demokratiska initiativ som rådhusmöten, där grupper av människor uppmanas att dela med sig av sina åsikter i politiska frågor, säkerställer att politikerna får höra en mängd olika perspektiv. Det kan dock vara svårt att skala upp dessa initiativ eftersom dessa diskussioner ofta är begränsade till små grupper för att säkerställa att alla röster hörs.

Summerfield och hans kollegor var nyfikna på forskning om möjligheterna med stora språkmodeller (LLM), och utvecklade en studie för att utvärdera hur AI kunde hjälpa människor med motsatta åsikter att nå en kompromiss.

De använde en finjusterad version av den förtränade DeepMind LLM Chinchillan, som de kallade "Habermas-maskinen", uppkallad efter filosofen Jürgen Habermas, som utvecklade en teori om hur rationella diskussioner kan hjälpa till att lösa konflikter.

För att testa sin modell rekryterade forskarna 439 brittiska invånare som delades in i mindre grupper. Varje grupp diskuterade tre frågor om brittiska politiska frågor och delade sina personliga åsikter om dem. Dessa åsikter matades sedan in i AI-motorn, som genererade övergripande uttalanden som kombinerade alla deltagares perspektiv. Deltagarna kunde betygsätta och kritisera varje påstående, som AI:n sedan införlivade i en slutlig sammanfattning av gruppens samlade syn.

"Modellen är tränad att producera ett uttalande som har maximalt stöd från en grupp människor som frivilligt har lämnat sina åsikter", säger Summerfield. "När modellen lär sig vad dina preferenser är om dessa uttalanden, kan den producera ett uttalande som med största sannolikhet kommer att tillfredsställa alla."

Förutom AI:n valdes en deltagare ut som medlare. Han ombads också att skapa en sammanfattning som bäst inkluderade alla deltagares åsikter. Deltagarna fick se både AI och medlarens sammanfattningar och ombads att betygsätta dem.

De flesta deltagare bedömde sammanfattningarna som skrivits av AI som bättre än de som skrivits av medlaren. 56 % av deltagarna föredrog AI-prestanda, jämfört med 44 % som föredrog mänsklig sammanfattning. Externa granskare ombads också att utvärdera sammanfattningarna och gav AI-sammanfattningarna högre betyg för rättvisa, kvalitet och tydlighet.

Forskargruppen rekryterade sedan en grupp deltagare som var demografiskt representativa för den brittiska befolkningen för ett virtuellt rådhusmöte. I det här scenariot ökade gruppöverenskommelsen om kontroversiella frågor efter att de interagerat med AI. Detta fynd tyder på att AI-verktyg, när de integreras i en verklig medborgarförsamling, skulle kunna göra det lättare för ledare att utveckla policyförslag som tar hänsyn till olika perspektiv.

"LLM kan användas på många sätt för att stödja överläggningar och ta roller som tidigare reserverats för mänskliga facilitatorer", säger Ethan Busby, som studerar hur AI-verktyg kan förbättra demokratiska samhällen vid Brigham Young University i Provo, Utah. "Jag ser detta som höjdpunkten av arbete inom detta område, som har stor potential att ta itu med pressande sociala och politiska frågor." Summerfield tillägger att AI till och med kan hjälpa till att göra konfliktlösningsprocesser snabbare och mer effektiva.

Förlorade anslutningar

"Att tillämpa dessa teknologier på deliberativa experiment och processer är verkligen glädjande", säger Sammy McKinney, som studerar deliberativ demokrati och dess gränssnitt med artificiell intelligens vid University of Cambridge, Storbritannien. Men han tillägger att forskare noga bör överväga den potentiella effekten av AI på den mänskliga aspekten av överläggningar. "En viktig anledning till att stödja medborgaröverläggningar är att de skapar specifika utrymmen där människor kan relatera till varandra", säger han. "Vad förlorar vi på att allt mer ta bort mänsklig kontakt och mänsklig hjälp?"

Summerfield inser begränsningarna förknippade med AI-tekniker som dessa. "Vi tränade inte modellen att ingripa i överläggningar", säger han, vilket betyder att modellens uttalande också kan innehålla extremistiska eller andra problematiska övertygelser. Han tillägger att rigorös forskning om AI:s inverkan på samhället är avgörande för att förstå dess värde.

"Det verkar viktigt för mig att gå försiktigt fram", säger McKinney, "och sedan vidta åtgärder för att mildra dessa farhågor där det är möjligt."

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Scholar

Ladda ner bibliografi