Districten hebben aangetoond dat kunstmatige intelligentie (AI) een waardevol hulpmiddel zou kunnen zijn in de strijd tegen complottheorieën. Ze ontwikkelden een chatbot die valse informatie kan weerleggen en mensen aanmoedigen om hun manier van denken in twijfel te trekken.

In een studie die op 12 september werd gepubliceerd in Science 1 met de chat-bots, die gedetailleerde antwoorden en argumenten verstrekte, die leverde naar een verandering in een verandering in een verandering in het denken dat een verandering in het denken heeft ingediend voor een verandering van een verandering in het denken. Dit resultaat geeft aan dat feiten en bewijs de mening van mensen daadwerkelijk kunnen veranderen.

"Dit werk heeft veel bestaande literatuur in twijfel getrokken die ervan uitgaat dat we in een post -feitelijke samenleving leven", zegt Katherine Fitzgerald, die onderzoek doet naar complottheorieën en verkeerde informatie aan de Queensland University of Technology in Brisbane, Australië.

Eerdere analyses hebben gesuggereerd dat mensen zich aangetrokken voelen tot complottheorieën omdat ze op zoek zijn naar veiligheid en zekerheid in een turbulente wereld. Maar "wat we in dit werk hebben ontdekt, is in tegenspraak met deze traditionele verklaring", zegt co -auteur Thomas Costello, een psychologische boomgaard aan de American University in Washington DC. "Een van de potentieel opwindende toepassingen van dit onderzoek is dat KI in het echte leven kan worden gebruikt om complottheorieën te weerleggen."

schadelijke ideeën

Hoewel veel complottheorieën nauwelijks sociale effecten hebben, kunnen degenen die populariteit winnen "echte schade aanrichten", zegt Fitzgerald. Het verwijst naar de aanval op het Amerikaanse Capitool op 6 januari 2021, die gedeeltelijk werd gevoed door claims over een gemanipuleerde presidentsverkiezingen in 2020, evenals de anti-vaccin retoriek, die de vaccinatieacceptatie tegen Covid-19, als voorbeelden belemmert.

Het is mogelijk om mensen te overtuigen om hun mening te veranderen, maar dit kan tijd zijn - consumerend en vermoeiend - en het enorme aantal en de verscheidenheid aan complottheorieën maken het moeilijk om het probleem op grotere schaal aan te pakken. Costello en zijn collega's wilden echter het potentieel van grote stemmodellen (LLMS) onderzoeken - deze kunnen grote hoeveelheden informatie snel verwerken en menselijke antwoorden genereren - om samenzweringstheorieën te bestrijden. "Ze werden getraind op internet, kennen alle complottheorieën en hun tegenargumenten, dus het leek een zeer natuurlijke toevoeging", zegt Costello.

geloof het of niet

De onderzoekers ontwikkelden een op maat gemaakte chatbot met behulp van GPT-4 Turbo-de nieuwste LLM van de Chatgpt-fabrikant Openai, gevestigd in San Francisco, Californië-die overtuigend was getraind tegen samenzwering. Vervolgens rekruteerden ze meer dan 1.000 deelnemers wiens demografie het eens was met de Amerikaanse mensen die tellen in relatie tot kenmerken zoals geslacht en etniciteit. Costello zegt dat het team in staat was om het vermogen van de chatbot te beoordelen om verschillende samenzweringen te weerleggen door mensen te werven met verschillende levenservaringen en hun eigen perspectieven.

Aan elke deelnemer werd gevraagd om een ​​complottheorie te beschrijven om uit te leggen waarom zij deze als waar beschouwden en om de kracht van hun overtuiging als een percentage uit te drukken. Deze details werden gedeeld met de chatbot, die vervolgens een gesprek had met de deelnemer, waarin hij informatie en bewijsmateriaal noemde die de samenzwering ondermijnde of weerlegde en reageerde op de vragen van de deelnemer. De antwoorden van de chatbot waren grondig en gedetailleerd en bereikten vaak honderden woorden. Gemiddeld duurde elk gesprek ongeveer 8 minuten.

De aanpak bleek effectief te zijn: het zelfvertrouwen van de deelnemers aan hun gekozen samenzweringstheorie daalde gemiddeld met 21 %nadat ze interactie hadden met de chatbot. En 25 % van de deelnemers veranderde van hoog vertrouwen (meer dan 50 %) in onzekerheid. De verandering was nauwelijks merkbaar voor de controlegroepen, die over een soortgelijk onderwerp spraken met dezelfde chatbot. Een volgt -examen van twee maanden later toonde aan dat de verandering van perspectief met veel deelnemers doorging.

Hoewel de resultaten van het onderzoek veelbelovend zijn, wijzen de onderzoekers erop dat de deelnemers en onderzoeksdeelnemers hebben betaald en mogelijk niet representatief zijn voor mensen die diep betrokken zijn bij complottheorieën.

Effectieve interventie

Fitzgerald is enthousiast over het potentieel van de AI om samen te werken tegen samenzweringen. "Als we een manier kunnen vinden om offline geweld te voorkomen, is dat altijd een goede zaak", zegt ze. Het suggereert dat volgde examens verschillende statistieken kunnen onderzoeken om de effectiviteit van de chatbot te evalueren of dat de studie kan worden herhaald met behulp van LLM's met minder geavanceerde beveiligingsmaatregelen om ervoor te zorgen dat ze niet -intensiveren van samenzweerderig denken.

Eerdere studies hebben hun bezorgdheid geuit over de neiging van AI -chatbots om onjuiste informatie te "hallucineren". De studie zorgde er echter voor om deze mogelijkheid te vermijden - het team van Costello vroeg een professionele feitelijke tester om de nauwkeurigheid van de door de chatbot verstrekte informatie te evalueren, die bevestigde dat geen van de verklaringen onjuist of politiek bevooroordeeld was.

Costello zegt dat het team verdere experimenten plant om verschillende strategieën van de chatbot te testen, bijvoorbeeld om te onderzoeken wat er gebeurt als de antwoorden van de chatbots onbeleefd zijn. Ze hopen meer te leren over wat deze speciale studie zo succesvol heeft gemaakt door de identificatie "van de experimenten waarin de overtuiging niet langer werkt".