Distrikt har visat att artificiell intelligens (AI) kan vara ett värdefullt verktyg i kampen mot konspirationsteorier. De utvecklade en chattbot som kan motbevisa falsk information och uppmuntra människor att ifrågasätta sitt sätt att tänka.

i en studie som publicerades den 12 september i Science 1 med chattboten, som gav detaljerade svar och argument, som ledde till en förändring i en förändring i flera månader. Detta resultat indikerar att fakta och bevis faktiskt kan förändra människors åsikt.

"Detta arbete ifrågasatte många befintliga litteratur som antar att vi lever i ett post -factual samhälle", säger Katherine Fitzgerald, som forskar i konspirationsteorier och felinformation vid Queensland University of Technology i Brisbane, Australien.

Tidigare analyser har föreslagit att människor lockas till konspirationsteorier eftersom de letar efter säkerhet och säkerhet i en turbulent värld. Men "det vi upptäckte i detta arbete motsäger denna traditionella förklaring", säger co -Author Thomas Costello, en psykologodling vid American University i Washington DC. "En av de potentiellt spännande tillämpningarna av denna forskning är att KI kan användas för att motbevisa konspirationsteorier i verkliga livet."

skadliga idéer

Även om många konspirationsteorier knappast har några sociala effekter, kan de som får popularitet "göra verkliga skador", säger Fitzgerald. Den hänvisar till attacken mot den amerikanska huvudstaden den 6 januari 2021, som delvis drivs av påståenden om ett manipulerat presidentval 2020, såväl som anti-vaccin-retoriken, som försämrar vaccinationens acceptans mot covid-19, som exempel.

Det är möjligt att övertyga människor att ändra sin åsikt, men det kan vara tidskonsumtiva och utmattande - och det stora antalet och variationen av konspirationsteorier gör det svårt att ta itu med problemet i större skala. Costello och hans kollegor ville emellertid undersöka potentialen för stora röstmodeller (LLM) - dessa kan behandla stora mängder information snabbt och generera mänskliga liknande svar - för att bekämpa konspirationsteorier. "De utbildades på internet, känner till alla konspirationsteorier och deras motargument, så det verkade vara ett mycket naturligt tillskott," säger Costello.

tro det eller inte

Forskarna utvecklade en skräddarsydd chatbot med GPT-4 Turbo-den senaste LLM av chatgpt-tillverkaren OpenAI, baserad i San Francisco, Kalifornien-som utbildades övertygande mot konspiration. De rekryterade sedan över 1 000 deltagare vars demografi enades med det amerikanska folket som räknar i förhållande till egenskaper som kön och etnicitet. Costello säger att teamet kunde bedöma chatbotens förmåga att motbevisa olika konspirationer genom att rekrytera människor med olika livserfarenheter och sina egna perspektiv.

Varje deltagare ombads att beskriva en konspirationsteori för att förklara varför de ansåg det vara sant och att uttrycka styrkan i deras övertygelse i procent. Dessa detaljer delades med Chat Bot, som sedan hade en konversation med deltagaren, där han citerade information och bevis som undergrävde eller motbevisade konspiration och reagerade på deltagarnas frågor. Svaren på chatboten var grundliga och detaljerade och nådde ofta hundratals ord. I genomsnitt tog varje konversation cirka 8 minuter.

Metoden visade sig vara effektiv: självförtroendet för deltagarna i deras valda konspirationsteori minskade i genomsnitt med 21 %efter att de interagerade med chattboten. Och 25 % av deltagarna bytte från högt förtroende (över 50 %) till osäkerhet. Förändringen märktes knappast för kontrollgrupperna, som talade om ett liknande ämne med samma chattbot. En följd -undersökning två månader senare visade att förändringen av perspektiv fortsatte med många deltagare.

Även om resultaten från studien är lovande påpekar forskarna att deltagarna fick utbetalda undersökningar och kanske inte är representativa för människor som är djupt involverade i konspirationsteorier.

Effektiv intervention

Fitzgerald är entusiastisk över AI: s potential att agera mot konspiration. "Om vi ​​kan hitta ett sätt att förhindra våld utanför är det alltid bra," säger hon. Det antyder att undersökningar om uppföljning kan undersöka olika mätvärden för att utvärdera effektiviteten hos chatboten eller att studien kan upprepas med LLMS med mindre avancerade säkerhetsåtgärder för att säkerställa att de inte intensifierar konspiratoriskt tänkande.

Tidigare studier har uttryckt oro över AI -chatbots tendens att "hallucinera" felaktig information. Studien såg emellertid till att undvika denna möjlighet - Costellos team bad en professionell fakta -testare att utvärdera noggrannheten för Informationen från Chatbot, vilket bekräftade att ingen av uttalandena var felaktiga eller politiskt partiska.

Costello säger att teamet planerar ytterligare experiment för att testa olika strategier för chatboten, till exempel för att undersöka vad som händer när chatbots svar är oförskämda. De hoppas kunna lära sig mer om vad som gjorde denna speciella studie så framgångsrik genom identifieringen "av experimenten där övertygelsen inte längre fungerar".