Nástroj AI podporuje dialóg medzi ľuďmi s protichodnými názormi

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Nástroj podporovaný AI pomáha ľuďom s rôznymi názormi nájsť spoločné stanoviská, a tak podporovať dialóg. (Symbolbild/natur.wiki)

Nástroj AI podporuje dialóg medzi ľuďmi s protichodnými názormi

Nástroj podobný chatu, ktorý podporuje umelá inteligencia (AI), môže pomôcť ľuďom s rôznymi názormi nájsť oblasti dohody. Ukazuje to experiment s online diskusnými skupinami.

Model vyvinutý spoločnosťou Google DeepMind v Londýne bol schopný syntetizovať odlišné názory a vytvoriť zhrnutia pozície každej skupiny, ktorá zohľadnila rôzne perspektívy. Účastníci uprednostnili zhrnutia, ktoré Gener AI napísal ľudskými sprostredkovateľmi. To naznačuje, že takéto nástroje by sa mohli použiť na podporu zložitých konzultácií. Štúdia bola uverejnená 17. októbra v časopise Science 1 .

„Môžete to vidieť ako dôkaz uskutočniteľnosti, že môžete použiť AI, najmä modely veľkých jazykov, na splnenie časti funkcie, ktorá je v súčasnosti splnená stretnutiami občanov a zámerných prieskumov,“ hovorí Christopher Summerfield, spoluautor štúdia a výskumného riaditeľa v bezpečí AI AI. „Ľudia musia nájsť podobnosti, pretože kolektívne kroky si vyžadujú schválenie.“

Kompromisný stroj

Demokratické iniciatívy, ako sú napríklad stretnutia občanov, v ktorých sú skupiny požiadané, aby sa podelili o svoje názory na politické otázky, zabezpečujú, aby politici vypočuli rôzne perspektívy. Rozšírenie týchto iniciatív však môže byť ťažké, pretože tieto diskusie sú často obmedzené na malé skupiny, aby sa zabezpečilo, že všetky hlasy sú vypočuté.

Zvedavý na výskum možností veľkých jazykových modelov (LLMS), Summerfield, spolu so svojimi kolegami, vyvinuli štúdiu na vyhodnotenie toho, ako by AI mohla pomôcť ľuďom s opačnými názormi na dosiahnutie kompromisu.

Používajú doladenú verziu vopred trénovaného DeepMind LLM činchilla, ktorú nazývali „Habermas Machine“, pomenovanú po filozofovi Jürgenovi Habermasovi, ktorý vyvinul teóriu toho, ako racionálne diskusie môžu pomôcť pri riešení konfliktov.

Na testovanie svojho modelu vedci prijali 439 britských obyvateľov, ktorí boli rozdelení do menších skupín. Každá skupina diskutovala o troch otázkach týkajúcich sa britských politických otázok a podelila sa o svoje osobné názory. Tieto názory sa potom priviedli do stroja AI, ktorý generoval zastrešujúce vyhlásenia, ktoré kombinovali perspektívy všetkých účastníkov. Účastníci boli schopní vyhodnotiť akékoľvek vyhlásenie a predložiť recenzie, ktoré AI potom začlenila do konečného zhrnutia kolektívnej perspektívy skupiny.

„Model je vyškolený na vypracovanie vyhlásenia, ktoré podporuje skupina ľudí, ktorí dobrovoľne vyjadrili svoje názory,“ hovorí Summerfield. „Keďže sa model dozvie, aké sú vaše preferencie o týchto výrokoch, potom môže vytvoriť vyhlásenie, ktoré s najväčšou pravdepodobnosťou všetci vyhovujú.“

Okrem AI bol účastník vybraný ako sprostredkovateľ. Bol tiež požiadaný, aby vytvoril zhrnutie, ktoré najlepšie obsahuje názory všetkých účastníkov. Účastníci dostali zhrnutia AI aj súhrnných sprostredkovateľov a mali by ich vyhodnotiť.

Väčšina účastníkov hodnotila súhrny napísané AI ako lepšie ako súhrn sprostredkovateľa. 56 % účastníkov uprednostňovalo výkonnosť AI v porovnaní so 44 %, ktoré uprednostňovali zhrnutie človeka. Externí odborníci boli tiež požiadaní, aby vyhodnotili zhrnutia a poskytli zhrnutie AI vyššie preskúmania týkajúce sa spravodlivosti, kvality a jasnosti.

Výskumný tím potom prijal skupinu účastníkov, ktorí boli demograficky reprezentatívnou britskou populáciou na stretnutie virtuálnych občanov. V tomto scenári sa dohoda o skupine po interakcii s AI zvýšila na kontroverzné témy. Táto realizácia naznačuje, že keď sú integrované do stretnutia skutočných občanov, nástroje AI by vodcom uľahčili rozvoj politických návrhov, ktoré zohľadňujú rôzne perspektívy.

„LLM by sa mohol použiť mnohými spôsobmi na podporu a prijímanie konzultácií, ktoré boli predtým vyhradené pre ľudských moderátorov,“ hovorí Ethan Busby, ktorý skúma, ako by nástroje AI mohli zlepšiť demokratické spoločnosti, na Brigham Young University v Provo v Utahu. „Považujem to za špičku práce v tejto oblasti, ktorá má veľký potenciál riešiť naliehavé sociálne a politické problémy.“ Summerfield dodáva, že AI by mohla dokonca pomôcť pri rýchlejších a efektívnejších procesoch riešenia riešenia konfliktov.

Stratené pripojenia

„Skutočne uplatňovať tieto technológie do zámerných experimentov a procesov, je skutočne potešujúce,“ hovorí Sammy McKinney, ktorý skúma zámernú demokraciu a jej rozhrania pre umelú inteligenciu na University of Cambridge, UK. Dodáva však, že vedci by mali starostlivo zvážiť potenciálne účinky AI na ľudský aspekt rokovania. „Hlavným dôvodom na podporu občianskych rokovaní je to, že vytvárajú určité miestnosti, v ktorých sa ľudia môžu navzájom vzťahovať,“ hovorí. „Čo stratíme, ak čoraz viac odstraňujeme ľudský kontakt a moderovanie človeka?“

Summerfield uznáva obmedzenia spojené s takýmto technológiám AI. „Model sme nevycvičili tak, aby zasiahli do rokovania,“ hovorí, čo znamená, že vyhlásenie modelu by mohlo obsahovať aj extrémistické alebo iné problematické presvedčenie. Dodáva, že prísny výskum vplyvu AI na spoločnosť je rozhodujúci pre pochopenie jej hodnoty.

„Konať starostlivo, zdá sa pre mňa dôležité,“ hovorí McKinney, „a potom podniknite kroky na zmiernenie týchto obáv.“

  1. Tessler, M.H. a kol., Science 386, EADQ2852 (2024).

  2. Stiahnite si zoznam literatúry