AI įrankis skatina žmonių dialogą, turintį priešingų nuomonių

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
AI palaikoma priemonė padeda žmonėms, turintiems skirtingą nuomonę, rasti bendrus požiūrius ir taip skatinti dialogą. (Symbolbild/natur.wiki)

AI įrankis skatina žmonių dialogą, turintį priešingų nuomonių

Pokalbis panašus įrankis, kurį palaiko dirbtinis intelektas (AI), gali padėti žmonėms, turintiems skirtingas nuomones, rasti susitarimo sritis. Tai parodo eksperimentas su internetinėmis diskusijų grupėmis.

„Google Deepmind“ sukurtas modelis Londone sugebėjo sintetinti skirtingas nuomones ir sukurti kiekvienos grupės pozicijos, kuri atsižvelgė į skirtingas perspektyvas, santraukas. Dalyviai pirmenybę teikė AI sugeneruotų santraukoms, o ne tiems, kuriuos parašė žmogaus tarpininkai. Tai rodo, kad tokios priemonės gali būti naudojamos remti sudėtingas konsultacijas. Tyrimas buvo paskelbtas spalio 17 d. Žurnalo moksle 1 .

"Galite tai pamatyti kaip įrodymą, kad galite naudoti AI, ypač didelių kalbų modelius, atlikti dalį funkcijos, kurią šiuo metu vykdo piliečių susitikimai ir sąmoningi tyrimai“, -sako Christopheris Summerfieldas, JK AI saugos tyrimo ir tyrimų direktorius. "Žmonės turi rasti panašumų, nes kolektyviniams veiksmams reikia patvirtinimo."

kompromiso aparatas

Demokratinės iniciatyvos, tokios kaip piliečių susitikimai, kuriuose grupių prašoma pasidalyti savo nuomonėmis politiniais klausimais, įsitikinkite, kad politikai išgirdo įvairias perspektyvas. Tačiau šių iniciatyvų išplėtimas gali būti sudėtingas, nes šios diskusijos dažnai apsiriboja mažomis grupėmis, siekiant užtikrinti, kad visi balsai būtų išgirsti.

Įdomu tyrinėti didelių kalbų modelių (LLMS) galimybių, kartu su savo kolegomis galimybių galimybes, sukūrė tyrimą, skirtą įvertinti, kaip AI galėtų padėti žmonėms, turintiems priešingų nuomonių, siekiant kompromiso.

Jie naudoja tiksliai suderintą iš anksto išmokytos „Deepmind LLM Chinchilla“ versiją, kurią jie pavadino „Habermas Machine“, pavadinimu filosofo Jürgeno Habermaso vardu, kuris sukūrė teoriją, kaip racionalios diskusijos gali padėti išspręsti konfliktus.

Norėdami išbandyti savo modelį, tyrėjai įdarbino 439 Didžiosios Britanijos gyventojus, kurie buvo suskirstyti į mažesnes grupes. Kiekviena grupė aptarė tris klausimus britų politiniais klausimais ir pasidalino savo asmenine nuomone. Tada šios nuomonės buvo pateiktos į AI aparatą, kuri sukūrė visa apimančius teiginius, kurie sujungė visų dalyvių perspektyvas. Dalyviai galėjo įvertinti bet kokį teiginį ir pateikti apžvalgas, kurias AI įtraukė į galutinę grupės kolektyvinės perspektyvos santrauką.

"Modelis mokomas pateikti pareiškimą, kurį palaiko grupė žmonių, kurie savanoriškai išreiškė savo nuomonę", - sako Summerfield. "Kadangi modelis sužino, kokie jūsų nuostatos yra apie šiuos teiginius, jis gali sukurti teiginį, kuris greičiausiai atitiks."

Be AI, dalyvis buvo pasirinktas kaip tarpininkas. Jo taip pat buvo paprašyta sukurti santrauką, kuri geriausiai apima visų dalyvių nuomones. Dalyviams buvo pateiktos ir AI, ir tarpininko santraukos, ir jie turėtų juos įvertinti.

Dauguma dalyvių įvertino AI parašytas santraukas kaip geriau nei tarpininko. 56 % dalyvių pirmenybę teikė AI rezultatams, palyginti su 44 %, kurie pirmenybę teikė žmogaus santraukai. Išorės ekspertų taip pat buvo paprašyta įvertinti santraukas ir pateikė AI santrauką aukštesnes apžvalgas apie teisingumą, kokybę ir aiškumą.

Tuomet tyrimų komanda įdarbino dalyvių grupę, kuriai demografiškai atstovavo Didžiosios Britanijos gyventojai virtualiam piliečių susitikimui. Šiame scenarijuje grupės susitarimas pakilo prieštaringai vertinamomis temomis po bendravimo su AI. Šis supratimas rodo, kad kai jie yra integruoti į tikro piliečių susitikimą, AI įrankiai galėtų palengvinti lyderiams parengti politinius pasiūlymus, atsižvelgiant į skirtingas perspektyvas.

"LLM galėtų būti naudojamas įvairiais būdais palaikant ir imtis konsultacijų, kurios anksčiau buvo skirtos žmonių moderatoriams", - sako Ethanas Busby, kuris tiria, kaip AI įrankiai galėtų pagerinti demokratines draugijas, Brigham Youngo universitete Provo mieste, Juta. "Aš tai laikau šios srities darbo patarimu, kuris turi didelę galimybę išspręsti skubias socialines ir politines problemas." „Summerfield“ priduria, kad AI netgi galėtų padėti greičiau ir efektyviau atlikti konfliktų sprendimo procesus.

Pamesti jungtys

"Iš tikrųjų šias technologijas pritaikyti sąmoninguose eksperimentuose ir procesuose yra tikrai malonu", - sako Sammy McKinney, nagrinėjantis sąmoningą demokratiją ir jos sąsajas dirbtinio intelektui Kembridžo universitete, JK. Tačiau jis priduria, kad tyrėjai turėtų atidžiai atsižvelgti į galimą AI poveikį žmogaus svarstymo aspektui. „Pagrindinė priežastis palaikyti pilietinius svarstymus yra ta, kad jie sukuria tam tikrus kambarius, kuriuose žmonės gali susieti vienas su kitu“, - sako jis. "Ką mes prarandame, jei vis dažniau pašaliname žmonių kontaktus ir žmogaus saikingumą?"

„Summerfield“ pripažįsta tokias su AI technologijomis susijusius apribojimus. „Mes neišmokėme modelio įsikišti į svarstymą“, - sako jis, tai reiškia, kad modelio teiginyje taip pat gali būti ekstremistų ar kitų probleminių įsitikinimų. Jis priduria, kad griežtas AI poveikio visuomenei tyrimai yra labai svarbūs norint suprasti jos vertę.

"Atidžiai elgtis, man atrodo svarbu", - sako McKinney, - ir tada imkitės priemonių, kad sušvelnintumėte šiuos rūpesčius, kur įmanoma. "

  1. >

    tessler, m.h. et al., Science 386, EADQ2852 (2024).

    google scholar Reference" Data-Track-Value = "Google Scholar Reference" Data-Track-Label = "Link" Data-Track-item_id = "nofollow noopener" aria etiket = "Google Scholar Reference 1" HREF = HREF = "http://scholar.google.com/scholar_lookup?&title=&journal=Science&volume=386&publication_year=2024&Author=tessler%2CM.H.">
    „Google Scholar“