AI Tool spodbuja dialog med ljudmi z nasprotnimi mnenji

AI Tool spodbuja dialog med ljudmi z nasprotnimi mnenji
Orodje, podobno klepetu, ki ga podpira umetna inteligenca (AI), lahko ljudem z različnimi pogledi pomaga najti področja soglasja. To prikazuje eksperiment s spletnimi diskusijskimi skupinami.
Model, ki ga je razvil Google Deepmind v Londonu, je lahko sintetiziral različna mnenja in ustvaril povzetke položaja vsake skupine, ki je upošteval različne perspektive. Udeleženci so raje povzetke, ki jih je ustvaril AI, tistim, ki so jih napisali človeški mediatorji. To kaže, da bi takšna orodja lahko uporabila za podporo zapletenim posvetovanjem. Študija je bila objavljena 17. oktobra v reviji Science 1 .
"Lahko ga vidite kot dokaz izvedljivosti, da lahko z AI, zlasti velikimi jezikovnimi modeli, izpolnite del funkcije, ki jo trenutno izpolnjujejo sestanki državljanov in namerne raziskave," pravi Christopher Summerfield, Co -jauthor študije in raziskovalnega direktorja v britanski AI varnosti. "Ljudje morajo najti podobnosti, ker kolektivno ukrepanje zahteva odobritev."
kompromisni stroj
Demokratične pobude, kot so sestanki državljanov, v katerih se skupine prosijo, da delijo svoje mnenje o političnih vprašanjih, zagotavljajo, da politiki slišijo različne perspektive. Vendar je širitev teh pobud lahko težka, ker so te razprave pogosto omejene na majhne skupine, da se zagotovi, da se slišijo vsi glasovi.
Radoveden o raziskavah možnosti velikih jezikovnih modelov (LLM), Summerfield je skupaj s svojimi kolegi razvil študijo, s katero je ocenil, kako lahko AI pomaga ljudem z nasprotnimi mnenji, da dosežejo kompromis.
Uporabljajo natančno nastavitev različice vnaprej usposobljene Deepmind LLM Chinchilla, ki so jo poimenovali "Habermas Machine", poimenovani po filozofu Jürgenu Habermasu, ki je razvil teorijo o tem, kako lahko racionalne razprave pomagajo pri reševanju konfliktov.
Za preizkus njihovega modela so raziskovalci zaposlili 439 britanskih prebivalcev, ki so bili razdeljeni v manjše skupine. Vsaka skupina je razpravljala o treh vprašanjih o britanskih političnih vprašanjih in delila svoja osebna mnenja. Ta mnenja so bila nato vgrajena v stroj AI, ki je ustvaril splošne izjave, ki so združile perspektive vseh udeležencev. Udeleženci so lahko ocenili katero koli izjavo in predložili ocene, ki jih je AI nato vključil v končni povzetek kolektivne perspektive skupine.
"Model je usposobljen za pripravo izjave, ki jo podpira skupina ljudi, ki so prostovoljno izrazili svoje mnenje," pravi Summerfield. "Ker se model nauči, kakšne so vaše želje v teh izjavah, lahko nato ustvari izjavo, ki jo najverjetneje vsi izpolnjujejo."
Poleg AI je bil kot mediator izbran tudi udeleženec. Prav tako so ga prosili, naj ustvari povzetek, ki najbolje vključuje stališča vseh udeležencev. Udeleženci so dobili tako povzetke AI kot tudi posrednike in jih morali oceniti.
Večina udeležencev je povzetke, ki jih je napisal AI, ocenila kot boljše od tistih mediatorja. 56 % udeležencev je imelo raje uspešnost AI v primerjavi s 44 %, ki so imeli raje človeški povzetek. Zunanji strokovnjaki so bili tudi pozvani, naj ocenijo povzetke in dajo AI povzetek višje preglede glede pravičnosti, kakovosti in jasnosti.
Raziskovalna skupina je nato zaposlila skupino udeležencev, ki so bili demografsko predstavniki britanskega prebivalstva za sestanek virtualnih državljanov. V tem scenariju se je skupinski sporazum po interakciji z AI povečal na spornih temah. To spoznanje kaže, da bi lahko AI orodja, ko so vključeni v sestanek resničnih državljanov, voditeljem olajšali razvijanje političnih predlogov, ki upoštevajo različne perspektive.
"LLM bi lahko uporabili na več načinov za podporo in sprejemanje posvetovanj, ki so bila prej rezervirana za človeške moderatorje," pravi Ethan Busby, ki preučuje, kako lahko orodja AI izboljšajo demokratična društva, na univerzi Brigham Young v Provo, Utah. "To menim kot vrh dela na tem področju, ki ima velik potencial za reševanje nujnih družbenih in političnih problemov." Summerfield dodaja, da bi AI lahko celo pomagal, da bi procesi reševanja konfliktov hitreje in učinkoviteje.
Izgubljene povezave
"Za dejansko uporabo teh tehnologij v namerne poskuse in procese je resnično razveseljivo," pravi Sammy McKinney, ki preučuje namerno demokracijo in njene vmesnike za umetno inteligenco na Univerzi v Cambridgeu v Veliki Britaniji. Dodaja pa, da bi morali raziskovalci natančno razmisliti o potencialnih učinkih AI na človeški vidik premišljevanja. "Glavni razlog za podporo državljanskim razpravam je, da ustvarjajo določene prostore, v katerih se lahko ljudje povežejo med seboj," pravi. "Kaj izgubimo, če vedno bolj odstranjujemo človeški stik in človeško zmernost?"
Summerfield prepozna omejitve, povezane s takšnimi tehnologijami AI. "Nismo usposobili modela, da bi posredovali v premišljevanju," pravi, kar pomeni, da bi lahko izjava modela vsebovala tudi ekstremistična ali druga problematična prepričanja. Dodaja, da so stroge raziskave o učinkih AI na družbo ključnega pomena za razumevanje njene vrednosti.
"Če skrbno ravnam, se mi zdi pomembno," pravi McKinney, "in nato sprejme ukrepe za ublažitev teh pomislekov, kjer je to mogoče."
- >
-
tessler, m.h. et al., Science 386, EADQ2852 (2024).