Narzędzie AI promuje dialog pomiędzy ludźmi o odmiennych poglądach

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Narzędzie wspierane przez sztuczną inteligencję pomaga osobom o różnych opiniach znaleźć wspólne punkty widzenia, promując w ten sposób dialog.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Narzędzie wspierane przez sztuczną inteligencję pomaga osobom o różnych opiniach znaleźć wspólne punkty widzenia, promując w ten sposób dialog.

Narzędzie AI promuje dialog pomiędzy ludźmi o odmiennych poglądach

Narzędzie przypominające chatbota, oparte na sztucznej inteligencji (AI), może pomóc osobom o różnych poglądach znaleźć obszary porozumienia. Pokazuje to eksperyment z internetowymi grupami dyskusyjnymi.

Model opracowany przez Google DeepMind w Londynie umożliwił syntezę rozbieżnych opinii i sporządzenie podsumowań stanowisk każdej grupy, uwzględniających różne perspektywy. Uczestnicy woleli podsumowania generowane przez sztuczną inteligencję od tych pisanych przez ludzkich mediatorów. Sugeruje to, że takie narzędzia mogłyby zostać wykorzystane do wsparcia złożonych konsultacji. Badanie opublikowano 17 października w czasopiśmie Science 1.

„Można to uznać za dowód słuszności koncepcji możliwości wykorzystania sztucznej inteligencji, zwłaszcza dużych modeli językowych, do wykonywania niektórych funkcji pełnionych obecnie przez zgromadzenia obywatelskie i sondaże deliberacyjne” – mówi Christopher Summerfield, współautor badania i dyrektor ds. badań w brytyjskim Instytucie Bezpieczeństwa AI. „Ludzie muszą znaleźć wspólną płaszczyznę porozumienia, ponieważ zbiorowe działanie wymaga zgody”.

Maszyna kompromisowa

Inicjatywy demokratyczne, takie jak spotkania w ratuszu, podczas których grupy ludzi proszone są o podzielenie się swoimi opiniami na tematy polityczne, zapewniają, że politycy poznają różnorodne punkty widzenia. Jednak zwiększenie skali tych inicjatyw może być trudne, ponieważ dyskusje te często ograniczają się do małych grup, aby zapewnić, że wszystkie głosy zostaną wysłuchane.

Zaciekawiony badaniami nad możliwościami dużych modeli językowych (LLM) Summerfield i jego współpracownicy opracowali badanie mające na celu ocenę, w jaki sposób sztuczna inteligencja może pomóc osobom o odmiennych opiniach osiągnąć kompromis.

Wdrożyli udoskonaloną wersję wstępnie wyszkolonej szynszyli DeepMind LLM, którą nazwali „Maszyną Habermasa”, nazwaną na cześć filozofa Jürgena Habermasa, który opracował teorię dotyczącą tego, jak racjonalne dyskusje mogą pomóc w rozwiązywaniu konfliktów.

Aby przetestować swój model, badacze zrekrutowali 439 mieszkańców Wielkiej Brytanii, których podzielono na mniejsze grupy. Każda grupa omówiła trzy pytania dotyczące brytyjskich kwestii politycznych i podzieliła się swoimi osobistymi opiniami na ich temat. Opinie te zostały następnie wprowadzone do silnika AI, który wygenerował nadrzędne stwierdzenia łączące perspektywy wszystkich uczestników. Uczestnicy mogli ocenić i skrytykować każde stwierdzenie, które następnie sztuczna inteligencja włączyła do końcowego podsumowania zbiorowego punktu widzenia grupy.

„Modelka jest szkolona, ​​jak formułować oświadczenia, które cieszą się maksymalnym poparciem grupy osób, które dobrowolnie wyraziły swoje opinie” – mówi Summerfield. „Gdy model dowie się, jakie są Twoje preferencje dotyczące tych stwierdzeń, może następnie stworzyć stwierdzenie, które najprawdopodobniej zadowoli wszystkich”.

Oprócz sztucznej inteligencji wybrano uczestnika w roli mediatora. Poproszono go także o stworzenie podsumowania, które najlepiej uwzględniałoby poglądy wszystkich uczestników. Uczestnikom pokazano zarówno AI, jak i streszczenia mediatora i poproszono o ich ocenę.

Większość uczestników oceniła podsumowania pisane przez sztuczną inteligencję jako lepsze od tych pisanych przez mediatora. 56% uczestników preferowało wydajność sztucznej inteligencji, w porównaniu do 44%, które wolało podsumowanie przez człowieka. Zewnętrzni recenzenci zostali również poproszeni o ocenę podsumowań i przyznali podsumowaniom AI wyższe oceny pod względem uczciwości, jakości i przejrzystości.

Następnie zespół badawczy zrekrutował grupę uczestników reprezentującą demograficznie populację Wielkiej Brytanii na wirtualne spotkanie w ratuszu. W tym scenariuszu porozumienie grupowe w kwestiach spornych wzrosło po interakcji z sztuczną inteligencją. Odkrycie to sugeruje, że narzędzia sztucznej inteligencji po zintegrowaniu z prawdziwym panelem obywatelskim mogłyby ułatwić przywódcom opracowywanie propozycji politycznych uwzględniających różne perspektywy.

„Model LLM można wykorzystać na wiele sposobów do wspierania obrad i podejmowania ról wcześniej zarezerwowanych dla ludzkich facylitatorów” – mówi Ethan Busby, który na Uniwersytecie Brighama Younga w Provo w stanie Utah bada, w jaki sposób narzędzia sztucznej inteligencji mogą ulepszyć społeczeństwa demokratyczne. „Postrzegam to jako szczyt prac w tej dziedzinie, która ma ogromny potencjał w zakresie rozwiązywania palących problemów społecznych i politycznych”. Summerfield dodaje, że sztuczna inteligencja może nawet pomóc w przyspieszeniu i usprawnieniu procesów rozwiązywania konfliktów.

Utracone połączenia

„Właściwie stosowanie tych technologii w eksperymentach i procesach deliberacyjnych jest naprawdę satysfakcjonujące” – mówi Sammy McKinney, który studiuje demokrację deliberatywną i jej interfejsy ze sztuczną inteligencją na Uniwersytecie w Cambridge w Wielkiej Brytanii. Dodaje jednak, że badacze powinni dokładnie rozważyć potencjalny wpływ sztucznej inteligencji na ludzki aspekt rozważań. „Kluczowym powodem wspierania debat obywatelskich jest to, że tworzą one określone przestrzenie, w których ludzie mogą nawiązywać wzajemne relacje” – mówi. „Co tracimy, w coraz większym stopniu usuwając kontakt międzyludzki i ułatwienia międzyludzkie?”

Summerfield zdaje sobie sprawę z ograniczeń związanych z takimi technologiami AI. „Nie szkoliliśmy modelu tak, aby mógł interweniować podczas narady” – mówi, co oznacza, że ​​stwierdzenie modela może również zawierać przekonania ekstremistyczne lub inne problematyczne. Dodaje, że rygorystyczne badania nad wpływem sztucznej inteligencji na społeczeństwo są kluczowe dla zrozumienia jej wartości.

„Wydaje mi się, że ważne jest, aby postępować ostrożnie” – mówi McKinney, „a następnie, jeśli to możliwe, podjąć kroki w celu złagodzenia tych obaw”.

  1. Tessler, M.H. i in., Science 386, eadq2852 (2024).


    Scholar Google

Pobierz bibliografię