AI-tool bevordert de dialoog tussen mensen met tegengestelde meningen

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Een AI-ondersteunde tool helpt mensen met verschillende meningen gemeenschappelijke standpunten te vinden en bevordert zo de dialoog.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Een AI-ondersteunde tool helpt mensen met verschillende meningen gemeenschappelijke standpunten te vinden en bevordert zo de dialoog.

AI-tool bevordert de dialoog tussen mensen met tegengestelde meningen

Een chatbotachtige tool, aangedreven door kunstmatige intelligentie (AI), kan mensen met verschillende opvattingen helpen punten van overeenstemming te vinden. Dit blijkt uit een experiment met online discussiegroepen.

Het model, ontwikkeld door Google DeepMind in Londen, was in staat uiteenlopende meningen te synthetiseren en samenvattingen te maken van de standpunten van elke groep, waarbij rekening werd gehouden met verschillende perspectieven. Deelnemers gaven de voorkeur aan door AI gegenereerde samenvattingen boven die geschreven door menselijke bemiddelaars. Dit suggereert dat dergelijke instrumenten kunnen worden gebruikt om complexe raadplegingen te ondersteunen. De studie werd op 17 oktober gepubliceerd in het tijdschrift Science 1.

“Je kunt het zien als een proof of concept dat je AI kunt gebruiken, vooral grote taalmodellen, om een ​​deel van de functies uit te voeren die momenteel worden vervuld door burgervergaderingen en deliberatieve opiniepeilingen”, zegt Christopher Summerfield, co-auteur van de studie en onderzoeksdirecteur bij het Britse AI Safety Institute. “Mensen moeten een gemeenschappelijke basis vinden, omdat collectieve actie toestemming vereist.”

Compromismachine

Democratische initiatieven zoals gemeentehuisbijeenkomsten, waarbij groepen mensen worden gevraagd hun mening te geven over politieke kwesties, zorgen ervoor dat politici verschillende perspectieven te horen krijgen. Het opschalen van deze initiatieven kan echter moeilijk zijn omdat deze discussies vaak beperkt blijven tot kleine groepen om ervoor te zorgen dat alle stemmen worden gehoord.

Benieuwd naar onderzoek naar de mogelijkheden van grote taalmodellen (LLM’s), ontwikkelden Summerfield en zijn collega’s een onderzoek om te evalueren hoe AI mensen met tegengestelde meningen zou kunnen helpen compromissen te sluiten.

Ze gebruikten een verfijnde versie van de vooraf getrainde DeepMind LLM Chinchilla, die ze de ‘Habermas Machine’ noemden, genoemd naar de filosoof Jürgen Habermas, die een theorie ontwikkelde over hoe rationele discussies kunnen helpen conflicten op te lossen.

Om hun model te testen, rekruteerden de onderzoekers 439 Britse inwoners die in kleinere groepen werden verdeeld. Elke groep besprak drie vragen over Britse politieke kwesties en deelde hun persoonlijke mening daarover. Deze meningen werden vervolgens in de AI-engine ingevoerd, die overkoepelende uitspraken genereerde die de perspectieven van alle deelnemers combineerden. Deelnemers konden elke uitspraak beoordelen en bekritiseren, die de AI vervolgens verwerkte in een definitieve samenvatting van de collectieve visie van de groep.

“Het model is getraind om een ​​verklaring te produceren die maximale steun krijgt van een groep mensen die vrijwillig hun mening geven”, zegt Summerfield. “Naarmate het model leert wat uw voorkeuren zijn met betrekking tot deze uitspraken, kan het een uitspraak produceren die hoogstwaarschijnlijk iedereen tevreden zal stellen.”

Naast de AI is er een deelnemer geselecteerd als mediator. Ook werd hem gevraagd een samenvatting te maken die de standpunten van alle deelnemers het beste weergeeft. De deelnemers kregen zowel de AI als de samenvattingen van de mediator te zien en werden gevraagd deze te beoordelen.

De meeste deelnemers beoordeelden de door de AI geschreven samenvattingen als beter dan die van de mediator. 56% van de deelnemers gaf de voorkeur aan AI-prestaties, vergeleken met 44% die de voorkeur gaf aan menselijke samenvatting. Ook externe reviewers werd gevraagd de samenvattingen te beoordelen en gaven de AI-samenvattingen hogere waarderingen voor eerlijkheid, kwaliteit en duidelijkheid.

Het onderzoeksteam rekruteerde vervolgens een groep deelnemers die demografisch representatief was voor de Britse bevolking voor een virtuele gemeentehuisbijeenkomst. In dit scenario nam de groepsovereenkomst over controversiële kwesties toe nadat ze interactie hadden met de AI. Deze bevinding suggereert dat AI-instrumenten, wanneer ze worden geïntegreerd in een echte burgervergadering, het voor leiders gemakkelijker kunnen maken om beleidsvoorstellen te ontwikkelen die rekening houden met verschillende perspectieven.

“De LLM zou op veel manieren kunnen worden gebruikt om beraadslagingen te ondersteunen en rollen op zich te nemen die voorheen waren voorbehouden aan menselijke facilitators”, zegt Ethan Busby, die onderzoekt hoe AI-instrumenten democratische samenlevingen kunnen verbeteren aan de Brigham Young University in Provo, Utah. “Ik beschouw dit als het hoogtepunt van het werk op dit gebied, dat een groot potentieel heeft om dringende sociale en politieke kwesties aan te pakken.” Summerfield voegt eraan toe dat AI zelfs kan helpen om processen voor conflictoplossing sneller en efficiënter te maken.

Verloren verbindingen

“Het daadwerkelijk toepassen van deze technologieën op deliberatieve experimenten en processen geeft veel voldoening”, zegt Sammy McKinney, die deliberatieve democratie en de raakvlakken ervan met kunstmatige intelligentie bestudeert aan de Universiteit van Cambridge, VK. Maar hij voegt eraan toe dat onderzoekers zorgvuldig moeten nadenken over de potentiële impact van AI op het menselijke aspect van overleg. “Een belangrijke reden om burgerberaadslagingen te ondersteunen is dat ze specifieke ruimtes creëren waarin mensen zich met elkaar kunnen verhouden”, zegt hij. “Wat verliezen we als we steeds meer menselijk contact en menselijke facilitering verwijderen?”

Summerfield erkent de beperkingen die gepaard gaan met AI-technologieën zoals deze. “We hebben het model niet getraind om in te grijpen in de beraadslaging”, zegt hij, wat betekent dat de verklaring van het model ook extremistische of andere problematische overtuigingen kan bevatten. Hij voegt eraan toe dat rigoureus onderzoek naar de impact van AI op de samenleving cruciaal is om de waarde ervan te begrijpen.

“Het lijkt mij belangrijk om voorzichtig te werk te gaan”, zegt McKinney, “en vervolgens stappen te ondernemen om die zorgen waar mogelijk weg te nemen.”

  1. Tessler, M.H. et al., Science 386, eadq2852 (2024).


    Google Scholar

Bibliografie downloaden