Narzędzie AI promuje dialog między ludźmi z przeciwnymi opiniami

Narzędzie wspierane przez AI pomaga ludziom z różnymi opiniami w znalezieniu wspólnych punktów widzenia, a tym samym promować dialog.
(Symbolbild/natur.wiki)

Narzędzie AI promuje dialog między ludźmi z przeciwnymi opiniami

Narzędzie podobne do czatu, które jest wspierane przez sztuczną inteligencję (AI), może pomóc osobom z różnymi poglądami w znalezieniu obszarów porozumienia. Pokazuje to eksperyment z internetowymi grupami dyskusyjnymi.

Model opracowany przez Google Deepmind w Londynie był w stanie syntetyzować rozbieżne opinie i tworzyć podsumowania pozycji każdej grupy, która uwzględniła różne perspektywy. Uczestnicy woleli podsumowania wygenerowane przez AI od wyników napisanych przez ludzkie mediatory. Wskazuje to, że takie narzędzia można wykorzystać do wspierania złożonych konsultacji. Badanie zostało opublikowane 17 października w magazynie Science 1 .

„Możesz to postrzegać jako dowód wykonalności, że możesz użyć sztucznej inteligencji, zwłaszcza dużych modeli językowych, aby wypełnić część funkcji, która jest obecnie spełniona przez spotkania obywateli i ankiety rozważające”, mówi Christopher Summerfield, co -autor badania i dyrektora ds. Badań w brytyjskim bezpieczeństwie AI. „Ludzie muszą znaleźć podobieństwa, ponieważ działanie zbiorowe wymaga zatwierdzenia”.

kompromisowy maszyna

Demokratyczne inicjatywy, takie jak spotkania obywateli, w których grupy proszone są o podzielenie się swoimi opiniami na temat kwestii politycznych, upewniają się, że politycy usłyszeli różne perspektywy. Jednak ekspansja tych inicjatyw może być trudna, ponieważ dyskusje te są często ograniczone do małych grup, aby zapewnić wysłuchanie wszystkich głosów.

Zainteresowanie badaniami dotyczącymi możliwości dużych modeli językowych (LLM), Summerfield wraz ze swoimi kolegami, opracowali badanie w celu oceny, w jaki sposób AI może pomóc osobom z przeciwnymi opiniami w osiągnięciu kompromisu.

Używają dopracowanej wersji wstępnie wyszkolonej DeepMind LLM Chinchilla, którą nazywali „Habermas Machine”, nazwaną na cześć filozofa Jürgen Habermas, który opracował teorię, w jaki sposób racjonalne dyskusje mogą pomóc w rozwiązaniu konfliktów.

Aby przetestować swój model, naukowcy zwerbowali 439 brytyjskich mieszkańców, którzy zostali podzieleni na mniejsze grupy. Każda grupa omawiała trzy pytania na temat brytyjskich kwestii politycznych i podzieliła się swoimi osobistymi opiniami. Opinie te zostały następnie przekazane do maszyny AI, która wygenerowała nadrzędne stwierdzenia, które łączyły perspektywy wszystkich uczestników. Uczestnicy byli w stanie ocenić wszelkie oświadczenie i przedstawić recenzje, które AI włączyła następnie do ostatecznego podsumowania zbiorowej perspektywy grupy.

„Model jest przeszkolony w celu stworzenia oświadczenia wspieranego przez grupę ludzi, którzy dobrowolnie wyrazili swoje opinie”, mówi Summerfield. „Ponieważ model dowiaduje się, jakie są twoje preferencje dotyczące tych stwierdzeń, może następnie stworzyć stwierdzenie, które najprawdopodobniej satysfakcjonują”.

Oprócz sztucznej inteligencji uczestnik został wybrany jako mediator. Poproszono go również o utworzenie podsumowania, które najlepiej obejmuje poglądy wszystkich uczestników. Uczestnicy otrzymali zarówno podsumowania AI, jak i podsumowania mediatora i powinni je ocenić.

Większość uczestników oceniła podsumowania napisane przez AI jako lepsze niż podsumowania mediatora. 56 % uczestników preferowało wydajność AI w porównaniu do 44 %, które preferowały podsumowanie człowieka. Eksperci zewnętrzni zostali również poproszeni o ocenę podsumowań i podali podsumowanie AI wyższe recenzje dotyczące sprawiedliwości, jakości i jasności.

Zespół badawczy zrekrutował następnie grupę uczestników, którzy byli demograficznie reprezentatywni dla ludności brytyjskiej na spotkanie wirtualnych obywateli. W tym scenariuszu umowa grupowa wzrosła na kontrowersyjne tematy po interakcji z AI. Ta realizacja sugeruje, że gdy są one zintegrowane ze spotkaniem prawdziwych obywateli, narzędzia AI mogą ułatwić przywódcom opracowanie propozycji politycznych, które uwzględniają różne perspektywy.

„LLM może być używany na wiele sposobów do wspierania i podejmowania konsultacji, które były wcześniej zarezerwowane dla ludzkich moderatorów”, mówi Ethan Busby, który bada, w jaki sposób narzędzia AI mogą poprawić społeczeństwa demokratyczne na Uniwersytecie Brigham Young w Provo w stanie Utah. „Uważam to za wierzchołek pracy w tym obszarze, który ma ogromny potencjał do rozwiązywania pilnych problemów społecznych i politycznych”. Summerfield dodaje, że AI może nawet pomóc w szybszym i wydajniejszym procesie rozwiązywania konfliktów.

utracone połączenia

„faktycznie zastosować te technologie do celowych eksperymentów i procesów, jest naprawdę satysfakcjonujące”, mówi Sammy McKinney, który analizuje demokrację rozważną i jej interfejsy sztucznej inteligencji na University of Cambridge w Wielkiej Brytanii. Dodaje jednak, że naukowcy powinni dokładnie rozważyć potencjalny wpływ AI na ludzki aspekt obrad. „Głównym powodem wspierania obrad obywatelskich jest to, że tworzą pewne pokoje, w których ludzie mogą się ze sobą odnosić” - mówi. „Co stracimy, jeśli coraz częściej usuwamy ludzki kontakt i umiar ludzki?”

Summerfield rozpoznaje ograniczenia związane z takimi technologiami AI. „Nie przeszkoliliśmy modelu do interwencji w obradach” - mówi, co oznacza, że ​​stwierdzenie modelu może również zawierać ekstremistyczne lub inne problematyczne przekonania. Dodaje, że rygorystyczne badania dotyczące wpływu AI na społeczeństwo mają kluczowe znaczenie dla zrozumienia jej wartości.

„działać ostrożnie, wydaje mi się ważne”, mówi McKinney, „a następnie podejmować kroki w celu złagodzenia tych obaw, gdzie to możliwe”.

  1. Tessler, M.H. i in., Science 386, EADQ2852 (2024).

    google scholar Reference„ Data-Track-wartości = "Google Scholar Reference„ Data-Track-Label = "Link" Data-Track-Item_Id = "Nofollow noopener" aria label = "Google Scholar Reference 1" href = href = „http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=Tessler%2CM.H.”>
    Google Scholar