AI -tool bevordert de dialoog tussen mensen met tegengestelde meningen

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Een door AI ondersteunde tool helpt mensen met verschillende meningen om gemeenschappelijke standpunten te vinden en dus de dialoog te bevorderen. (Symbolbild/natur.wiki)

AI -tool bevordert de dialoog tussen mensen met tegengestelde meningen

Een chat -achtige tool die wordt ondersteund door kunstmatige intelligentie (AI) kan mensen met verschillende weergaven helpen om overeenstemming te vinden. Dit wordt aangetoond door een experiment met online discussiegroepen.

Het model ontwikkeld door Google DeepMind in Londen was in staat om uiteenlopende meningen te synthetiseren en samenvattingen te maken van de positie van elke groep die rekening hield met verschillende perspectieven. De deelnemers gaven de voorkeur aan de samenvattingen die door de AI werden gegenereerd boven die geschreven door menselijke bemiddelaars. Dit geeft aan dat dergelijke tools kunnen worden gebruikt om complexe overleg te ondersteunen. De studie werd gepubliceerd op 17 oktober in het tijdschrift Science 1 .

"Je kunt het zien als een bewijs van haalbaarheid dat je AI, vooral grote taalmodellen, kunt gebruiken om een ​​deel van de functie te vervullen die momenteel wordt vervuld door de vergaderingen van burgers en deliberatieve enquêtes", zegt Christopher Summerfield, co -autor van de studie- en onderzoeksdirecteur bij de UK AI Safety. "Mensen moeten overeenkomsten vinden, omdat collectieve actie goedkeuring vereist."

compromis machine

Democratische initiatieven zoals de vergaderingen van burgers, waarin groepen worden gevraagd om hun mening over politieke kwesties te delen, zorgen ervoor dat politici verschillende perspectieven horen. De uitbreiding van deze initiatieven kan echter moeilijk zijn omdat deze discussies vaak beperkt zijn tot kleine groepen om ervoor te zorgen dat alle stemmen worden gehoord.

Nieuwsgierig naar onderzoek naar de mogelijkheden van grote taalmodellen (LLMS), ontwikkelde Summerfield samen met zijn collega's een onderzoek om te evalueren hoe AI mensen met tegengestelde meningen zou kunnen helpen om een ​​compromis te bereiken.

Ze gebruiken een verfijnde versie van de vooraf opgeleide DeepMind LLM Chinchilla, die ze "Habermas Machine" noemden, genoemd naar de filosoof Jürgen Habermas, die een theorie ontwikkelden over hoe rationele discussies kunnen helpen om conflicten op te lossen.

Om hun model te testen, rekruteerden de onderzoekers 439 Britse inwoners die waren verdeeld in kleinere groepen. Elke groep besprak drie vragen over Britse politieke kwesties en deelde hun persoonlijke meningen. Deze meningen werden vervolgens ingevoerd in de AI -machine, die overkoepelende verklaringen genereerde die de perspectieven van alle deelnemers combineerden. De deelnemers waren in staat om elke verklaring te evalueren en beoordelingen in te dienen, die de AI vervolgens opgenomen in een laatste samenvatting van het collectieve perspectief van de groep.

"Het model is getraind om een ​​verklaring te produceren die wordt ondersteund door een groep mensen die vrijwillig hun mening hebben uitgesproken", zegt Summerfield. "Omdat het model leert wat uw voorkeuren zijn over deze uitspraken, kan het vervolgens een verklaring maken die hoogstwaarschijnlijk allemaal voldoet."

Naast de AI werd een deelnemer geselecteerd als bemiddelaar. Hij werd ook gevraagd om een ​​samenvatting te maken die het beste de uitzichten van alle deelnemers omvat. De deelnemers kregen zowel de samenvattingen van de AI als die van de bemiddelaar en moesten deze evalueren.

De meeste deelnemers beoordeelden de samenvattingen geschreven door de AI als beter dan die van de bemiddelaar. 56 % van de deelnemers gaf de voorkeur aan de prestaties van de AI vergeleken met 44 % die de voorkeur gaf aan de menselijke samenvatting. Externe experts werden ook gevraagd om de samenvattingen te evalueren en gaven de AI -samenvatting hogere beoordelingen met betrekking tot rechtvaardigheid, kwaliteit en duidelijkheid.

Het onderzoeksteam rekruteerde vervolgens een groep deelnemers die demografisch representatief waren voor de Britse bevolking voor een virtuele burgersbijeenkomst. In dit scenario steeg de groepsovereenkomst over controversiële onderwerpen na interactie met de AI. Deze realisatie suggereert dat wanneer ze worden geïntegreerd in een echte burgersbijeenkomst, AI -tools het voor de leiders gemakkelijker kunnen maken om politieke voorstellen te ontwikkelen die rekening houden met verschillende perspectieven.

"De LLM zou op veel manieren kunnen worden gebruikt om overleg te ondersteunen en aan te nemen die eerder waren gereserveerd voor menselijke moderators", zegt Ethan Busby, die onderzoekt hoe AI -tools de democratische samenlevingen kunnen verbeteren, aan de Brigham Young University in Provo, Utah. "Ik beschouw dit als het topje van het werk op dit gebied, dat een groot potentieel heeft om dringende sociale en politieke problemen aan te pakken." Summerfield voegt eraan toe dat AI zelfs zou kunnen helpen om conflictoplossingsprocessen sneller en efficiënter te maken.

Verloren verbindingen

"Om deze technologieën daadwerkelijk toe te passen op deliberatieve experimenten en processen, is echt verheugend", zegt Sammy McKinney, die de deliberatieve democratie en zijn interfaces voor kunstmatige intelligentie aan de Universiteit van Cambridge, VK onderzoekt. Maar hij voegt eraan toe dat onderzoekers zorgvuldig rekening moeten houden met de potentiële effecten van de AI op het menselijke aspect van het beraadslaging. "Een belangrijke reden om maatschappelijke beraadslagingen te ondersteunen is dat ze bepaalde kamers creëren waarin mensen zich tot elkaar kunnen verhouden", zegt hij. "Wat verliezen we als we in toenemende mate menselijk contact en menselijke matiging verwijderen?"

Summerfield erkent de beperkingen die verband houden met AI -technologieën zoals deze. "We hebben het model niet getraind om in te grijpen in het beraadslaging", zegt hij, wat betekent dat de verklaring van het model ook extremistische of andere problematische overtuigingen zou kunnen bevatten. Hij voegt eraan toe dat rigoureus onderzoek naar de effecten van AI op de samenleving cruciaal is om de waarde ervan te begrijpen.

"om zorgvuldig te handelen, lijkt me belangrijk", zegt McKinney, "en vervolgens stappen ondernemen om deze zorgen waar mogelijk te verzachten."

    >
  1. Tessler, M.H. et al., Science 386, EADQ2852 (2024).

    google scholar Reference" Data-track-value = "Google Scholar Reference" Data-track-label = "Link" dat-track-item_id = "Nofollow NOOpener" ARIA label = "Google Scholar Reference 1" HREF = "http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=tessler%2CM.H.">
    Google Scholar

  2. Literatuuroverlijst downloaden