Instrumentul AI promovează dialogul dintre oameni cu opinii opuse

Instrumentul AI promovează dialogul dintre oameni cu opinii opuse
Un instrument asemănător chat -ului care este susținut de inteligența artificială (AI) poate ajuta persoanele cu opinii diferite să găsească domenii de acord. Acest lucru este arătat printr -un experiment cu grupuri de discuții online.
Modelul dezvoltat de Google Deepmind la Londra a fost capabil să sintetizeze opinii divergente și să creeze rezumate ale poziției fiecărui grup care a luat în considerare perspective diferite. Participanții au preferat rezumatele generate de AI celor scrise de mediatori umani. Acest lucru indică faptul că astfel de instrumente ar putea fi utilizate pentru a sprijini consultări complexe. Studiul a fost publicat pe 17 octombrie în revista Science 1 .
"Puteți vedea ca o dovadă a fezabilității pe care o puteți utiliza AI, în special modele de limbaj mare, pentru a îndeplini o parte din funcția care este îndeplinită în prezent de întâlnirile cetățenilor și sondajele deliberative", spune Christopher Summerfield, co -autor al studiului și directorului de cercetare la siguranța AI din Marea Britanie. „Oamenii trebuie să găsească asemănări, deoarece acțiunea colectivă necesită aprobare”.
Machine de compromis
inițiative democratice, cum ar fi întâlnirile cetățenilor, în care grupurile sunt rugate să își împărtășească opiniile cu privire la problemele politice, să se asigure că politicienii aud o varietate de perspective. Cu toate acestea, extinderea acestor inițiative poate fi dificilă, deoarece aceste discuții sunt adesea limitate la grupuri mici pentru a se asigura că toate vocile sunt auzite.
Curios despre cercetările privind posibilitățile modelelor de limbaj mare (LLMS), Summerfield, împreună cu colegii săi, au dezvoltat un studiu pentru a evalua modul în care AI ar putea ajuta oamenii cu opinii opuse pentru a obține un compromis.
folosesc o versiune reglată fină a pre-instruită Deepmind LLM Chinchilla, pe care au numit-o „Mașina Habermas”, numită după filosoful Jürgen Habermas, care a dezvoltat o teorie a modului în care discuțiile raționale pot ajuta la rezolvarea conflictelor.
pentru a -și testa modelul, cercetătorii au recrutat 439 de rezidenți britanici care au fost împărțiți în grupuri mai mici. Fiecare grup a discutat despre trei întrebări cu privire la problemele politice britanice și și -a împărtășit opiniile personale. Aceste opinii au fost apoi introduse în mașina AI, care a generat declarații generale care au combinat perspectivele tuturor participanților. Participanții au reușit să evalueze orice declarație și să prezinte recenzii, pe care AI le -a încorporat apoi într -un rezumat final al perspectivei colective a grupului.
"Modelul este instruit să producă o declarație care este susținută de un grup de oameni care și -au exprimat voluntar opiniile", spune Summerfield. "Întrucât modelul învață care sunt preferințele dvs. despre aceste afirmații, poate crea apoi o afirmație care, cel mai probabil, satisface toate."
Pe lângă AI, un participant a fost selectat ca mediator. De asemenea, i s -a cerut să creeze un rezumat care să includă cel mai bine opiniile tuturor participanților. Participanților li s -a oferit atât rezumatele AI, cât și cele ale mediatorului și ar trebui să le evalueze.
Majoritatea participanților au evaluat rezumatele scrise de AI ca fiind mai bune decât cele ale mediatorului. 56 % dintre participanți au preferat performanța AI, comparativ cu 44 %, care preferau rezumatul uman. Experții externi au fost, de asemenea, solicitați să evalueze rezumatele și au dat rezumatul AI recenzii mai mari cu privire la justiție, calitate și claritate.
Echipa de cercetare a recrutat apoi un grup de participanți care au fost reprezentativi demografic pentru populația britanică pentru o întâlnire a cetățenilor virtuali. În acest scenariu, acordul de grup a crescut pe subiecte controversate după ce a interacționat cu AI. Această realizare sugerează că atunci când sunt integrați într -o reuniune a cetățenilor reali, instrumentele AI ar putea facilita liderii să dezvolte propuneri politice care să țină cont de perspective diferite.
"LLM ar putea fi utilizat în mai multe moduri pentru a susține și a prelua consultări care au fost rezervate anterior pentru moderatorii umani", spune Ethan Busby, care examinează modul în care instrumentele AI ar putea îmbunătăți societățile democratice, la Brigham Young University din Provo, Utah. "Consider acest lucru ca fiind vârful muncii în acest domeniu, care are un potențial mare de a rezolva probleme sociale și politice urgente." Summerfield adaugă că AI ar putea ajuta chiar la realizarea proceselor de soluționare a conflictelor mai rapid și mai eficient.
conexiuni pierdute
"A aplica de fapt aceste tehnologii în experimente și procese deliberative, este cu adevărat îmbucurător", spune Sammy McKinney, care examinează democrația deliberativă și interfețele sale pentru inteligența artificială la Universitatea din Cambridge, Marea Britanie. El adaugă însă că cercetătorii ar trebui să ia în considerare cu atenție efectele potențiale ale AI asupra aspectului uman al deliberării. „Un motiv principal pentru a sprijini deliberările civice este acela că creează anumite camere în care oamenii se pot raporta între ei”, spune el. "Ce pierdem dacă eliminăm din ce în ce mai mult contactul uman și moderația umană?"
Summerfield recunoaște restricțiile asociate tehnologiilor AI de acest fel. „Nu am instruit modelul pentru a interveni în deliberare”, spune el, ceea ce înseamnă că afirmația modelului ar putea conține și credințe extremiste sau alte probleme. El adaugă că cercetările riguroase asupra efectelor AI asupra societății este crucială pentru a -i înțelege valoarea.
"Pentru a acționa cu atenție, mi se pare important", spune McKinney, "și apoi face măsuri pentru a atenua aceste preocupări acolo unde este posibil."
-
tessler, m.h. și colab., Science 386, EADQ2852 (2024).