Instrumentul AI promovează dialogul între oameni cu opinii opuse

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Un instrument susținut de inteligență artificială ajută oamenii cu opinii diferite să găsească puncte de vedere comune și, astfel, promovează dialogul.

Ein KI-gestütztes Tool hilft Menschen mit unterschiedlichen Meinungen, gemeinsame Standpunkte zu finden und fördert so den Dialog.
Un instrument susținut de inteligență artificială ajută oamenii cu opinii diferite să găsească puncte de vedere comune și, astfel, promovează dialogul.

Instrumentul AI promovează dialogul între oameni cu opinii opuse

Un instrument asemănător unui chatbot alimentat de inteligență artificială (AI) poate ajuta oamenii cu opinii diferite să găsească zone de acord. Acest lucru este demonstrat de un experiment cu grupuri de discuții online.

Modelul, dezvoltat de Google DeepMind la Londra, a reușit să sintetizeze opinii divergente și să producă rezumate ale poziției fiecărui grup care au luat în considerare perspective diferite. Participanții au preferat rezumatele generate de IA față de cele scrise de mediatorii umani. Acest lucru sugerează că astfel de instrumente ar putea fi utilizate pentru a sprijini consultări complexe. Studiul a fost publicat pe 17 octombrie în revista Science 1.

„Puteți vedea ca o dovadă a conceptului că puteți utiliza inteligența artificială, în special modelele lingvistice mari, pentru a îndeplini o parte din funcțiile îndeplinite în prezent de adunările cetățenilor și sondajele deliberative”, spune Christopher Summerfield, coautor al studiului și director de cercetare la Institutul pentru Siguranță AI din Regatul Unit. „Oamenii trebuie să găsească un teren comun, deoarece acțiunea colectivă necesită consimțământ.”

Mașină de compromis

Inițiativele democratice, cum ar fi ședințele primăriei, în care grupurile de oameni sunt rugate să-și împărtășească opiniile asupra problemelor politice, asigură că politicienii aud o varietate de perspective. Cu toate acestea, extinderea acestor inițiative poate fi dificilă, deoarece aceste discuții sunt adesea limitate la grupuri mici pentru a se asigura că toate vocile sunt auzite.

Curioși de cercetarea posibilităților modelelor lingvistice mari (LLM), Summerfield și colegii săi au dezvoltat un studiu pentru a evalua modul în care AI ar putea ajuta oamenii cu opinii opuse să ajungă la compromis.

Ei au implementat o versiune perfecționată a pre-antrenată DeepMind LLM Chinchilla, pe care au numit-o „Mașina Habermas”, numită după filozoful Jürgen Habermas, care a dezvoltat o teorie a modului în care discuțiile raționale pot ajuta la rezolvarea conflictelor.

Pentru a-și testa modelul, cercetătorii au recrutat 439 de rezidenți britanici care au fost împărțiți în grupuri mai mici. Fiecare grup a discutat trei întrebări despre probleme politice britanice și și-a împărtășit opiniile personale despre acestea. Aceste opinii au fost apoi introduse în motorul AI, care a generat declarații generale care au combinat perspectivele tuturor participanților. Participanții au putut să evalueze și să critice fiecare declarație, pe care AI ​​a încorporat-o apoi într-un rezumat final al viziunii colective a grupului.

„Modelul este antrenat pentru a produce o declarație care are sprijin maxim din partea unui grup de oameni care și-au oferit opiniile voluntare”, spune Summerfield. „Pe măsură ce modelul învață care sunt preferințele dumneavoastră cu privire la aceste afirmații, apoi poate produce o declarație care este cel mai probabil să mulțumească pe toată lumea.”

Pe lângă IA, un participant a fost selectat ca mediator. De asemenea, i s-a cerut să creeze un rezumat care să includă cel mai bine punctele de vedere ale tuturor participanților. Participanților li s-au arătat atât rezumatele AI, cât și ale mediatorului și li s-a cerut să le evalueze.

Majoritatea participanților au evaluat rezumatele scrise de AI ca fiind mai bune decât cele scrise de mediator. 56% dintre participanți au preferat performanța AI, comparativ cu 44% care au preferat rezumatul uman. De asemenea, evaluatorii externi au fost rugați să evalueze rezumatele și au acordat rezumatelor AI evaluări mai mari pentru corectitudine, calitate și claritate.

Echipa de cercetare a recrutat apoi un grup de participanți reprezentativi din punct de vedere demografic al populației din Regatul Unit pentru o întâlnire virtuală a primăriei. În acest scenariu, acordul de grup privind problemele litigioase a crescut după ce au interacționat cu AI. Această constatare sugerează că instrumentele de inteligență artificială, atunci când sunt integrate într-o adunare reală a cetățenilor, le-ar putea facilita liderilor să elaboreze propuneri de politici care să ia în considerare diverse perspective.

„LLM ar putea fi folosit în multe moduri pentru a sprijini deliberările și pentru a-și asuma roluri rezervate anterior facilitatorilor umani”, spune Ethan Busby, care studiază modul în care instrumentele AI ar putea îmbunătăți societățile democratice la Universitatea Brigham Young din Provo, Utah. „Văd acest lucru ca fiind culmea muncii în acest domeniu, care are un mare potențial de a aborda probleme sociale și politice presante.” Summerfield adaugă că inteligența artificială ar putea chiar ajuta la accelerarea și eficientizarea proceselor de rezolvare a conflictelor.

Conexiuni pierdute

„De fapt, aplicarea acestor tehnologii la experimente și procese deliberative este cu adevărat îmbucurătoare”, spune Sammy McKinney, care studiază democrația deliberativă și interfețele acesteia cu inteligența artificială la Universitatea din Cambridge, Marea Britanie. Dar el adaugă că cercetătorii ar trebui să ia în considerare cu atenție impactul potențial al inteligenței artificiale asupra aspectului uman al deliberării. „Un motiv cheie pentru a susține deliberările cetățenilor este că aceștia creează spații specifice în care oamenii se pot relaționa unii cu alții”, spune el. „Ce pierdem eliminând tot mai mult contactul uman și facilitarea umană?”

Summerfield recunoaște limitările asociate cu tehnologiile AI precum acestea. „Nu l-am antrenat pe model să intervină în deliberare”, spune el, ceea ce înseamnă că declarația modelului ar putea conține, de asemenea, convingeri extremiste sau alte convingeri problematice. El adaugă că cercetarea riguroasă a impactului AI asupra societății este crucială pentru înțelegerea valorii acesteia.

„Mi se pare important să procedez cu prudență”, spune McKinney, „și apoi să iau măsuri pentru a atenua aceste preocupări acolo unde este posibil.”

  1. Tessler, M.H. şi colab., Science 386, eadq2852 (2024).


    Google Academic

Descărcați bibliografia