Nástroj AI podporuje dialog mezi lidmi s protichůdnými názory

Nástroj AI podporuje dialog mezi lidmi s protichůdnými názory
Nástroj podobný chatu, který je podporován umělou inteligencí (AI), může lidem pomoci s různými názory na nalezení oblastí dohody. To je zobrazeno experimentem s online diskusními skupinami.
Model vyvinutý společností Google DeepMind v Londýně byl schopen syntetizovat odlišné názory a vytvořit shrnutí pozice každé skupiny, která zohlednila různé perspektivy. Účastníci upřednostňovali souhrny generované AI před souhrny napsané lidskými mediátory. To naznačuje, že takové nástroje by mohly být použity k podpoře složitých konzultací. Studie byla zveřejněna 17. října v časopise Science 1 .
"Můžete to vidět jako důkaz proveditelnosti, že můžete použít AI, zejména velké jazykové modely, k plnění části funkce, kterou v současné době splní občanské setkání a úmyslné průzkumy," říká Christopher Summerfield, spoluautor studie a výzkumného ředitele ve Velké Británii AI Bezpečnost. "Lidé musí najít podobnosti, protože kolektivní akce vyžaduje schválení."
kompromisní stroj
Demokratické iniciativy, jako jsou setkání občanů, ve kterých jsou skupiny požádány o sdílení svých názorů na politické otázky, zajišťují, aby politici vyslechli různé perspektivy. Rozšíření těchto iniciativ však může být obtížné, protože tyto diskuse jsou často omezeny na malé skupiny, aby se zajistilo, že všechny hlasy budou slyšet.
Zajímavá se o výzkumu možností velkých jazykových modelů (LLMS), Summerfield, spolu se svými kolegy, vyvinula studii, která vyhodnotila, jak by AI mohla pomoci lidem s opačnými názory k dosažení kompromisu.
Používají jemně vyladěnou verzi předem vyškolené DeepMind LLM Chinchilla, kterou nazývali „Mabermas Machine“, pojmenovaný po filozofovi Jürgenovi Habermasovi, který vyvinul teorii toho, jak racionální diskuse mohou pomoci vyřešit konflikty.
Aby testovali svůj model, vědci najali 439 britských obyvatel, kteří byli rozděleni do menších skupin. Každá skupina diskutovala o třech otázkách britských politických otázek a sdílela své osobní názory. Tyto názory byly poté přivedeny do stroje AI, který generoval zastřešující prohlášení, která kombinovala perspektivy všech účastníků. Účastníci byli schopni zhodnotit jakékoli prohlášení a předložit recenze, které AI poté začlenila do konečného shrnutí kolektivní perspektivy skupiny.
"Model je vyškolen k vytvoření prohlášení, které podporuje skupina lidí, kteří dobrovolně vyjádřili své názory," říká Summerfield. "Protože se model dozví, jaké jsou vaše preference o těchto prohlášeních, může pak vytvořit prohlášení, které s největší pravděpodobností uspokojí."
Kromě AI byl účastník vybrán jako mediátor. Byl také požádán o vytvoření shrnutí, které nejlépe zahrnuje názory všech účastníků. Účastníci dostali shrnutí AI i souhrny mediátora a měli by je vyhodnotit.
Většina účastníků hodnotila souhrny napsané AI jako lepší než souhrny mediátoru. 56 % účastníků upřednostňovalo výkon AI ve srovnání se 44 %, které upřednostňovaly lidské shrnutí. Externí odborníci byli také požádáni, aby vyhodnotili shrnutí a dali AI shrnutí vyšší recenze týkající se spravedlnosti, kvality a jasnosti.
Výzkumný tým poté najal skupinu účastníků, kteří byli demograficky reprezentativní pro britskou populaci na setkání virtuálních občanů. V tomto scénáři se skupinová dohoda zvýšila o kontroverzních tématech po interakci s AI. Tato realizace naznačuje, že když jsou integrováni do skutečného setkání občanů, mohly by nástroje AI nástroje usnadnit rozvoj politických návrhů, které zohledňují různé perspektivy.
"LLM by mohl být použit v mnoha ohledech k podpoře a přijímání konzultací, které byly dříve vyhrazeny pro lidské moderátory," říká Ethan Busby, který zkoumá, jak by nástroje AI mohly zlepšit demokratické společnosti, na Brigham Young University v Provo v Utahu. "Považuji to za špičku práce v této oblasti, která má velký potenciál řešit naléhavé sociální a politické problémy." Summerfield dodává, že AI by mohla dokonce pomoci rychleji a efektivněji procesy řešení konfliktů.
ztracená spojení
"skutečně aplikovat tyto technologie do deliberativních experimentů a procesů, je opravdu potěšující," říká Sammy McKinney, která zkoumá deliberativní demokracii a její rozhraní pro umělou inteligenci na University of Cambridge ve Velké Británii. Dodává však, že vědci by měli pečlivě zvážit potenciální účinky AI na lidský aspekt jednání. „Hlavním důvodem k podpoře občanských jednání je to, že vytvářejí určité místnosti, ve kterých se lidé mohou navzájem vztahovat,“ říká. "Co ztratíme, když stále více odstraňujeme lidský kontakt a lidské moderování?"
Summerfield uznává omezení spojená s takovými technologiemi AI. „Neucvičili jsme model, který by zasáhl do jednání,“ říká, což znamená, že prohlášení modelu by mohlo obsahovat také extremistické nebo jiné problematické přesvědčení. Dodává, že přísný výzkum účinků AI na společnost je zásadní pro pochopení její hodnoty.
„jednat pečlivě, zdá se mi důležité,“ říká McKinney, „a poté podnikne kroky ke zmírnění těchto obav, pokud je to možné.“
-
tessler, m.h. et al., Science 386, Eadq2852 (2024).
google scholar Reference" Data-Track-Value = "Google Scholar Reference" Data-Track-Label = "Link" Data-Track-ITEM_ID = "NoFollow Noopener" Aria label = "Google Scholar Reference 1" href = "http://scholar.google.com/scholar_lookup?&title=&journal=science&volume=386&publication_year=2024&author=tessler%2CM.h.">
Google Scholar