Ki-Chatbot bringer konspirationsteoretikere til at stille spørgsmålstegn ved deres overbevisning

Ein KI-Chatbot hilft, Verschwörungstheorien zu hinterfragen, indem er fundierte Argumente liefert. Studien zeigen, dass dies das Denken beeinflussen kann.
En AI-chatbot hjælper med at stille spørgsmålstegn ved konspirationsteorier ved at give velbegrundede argumenter. Undersøgelser viser, at dette kan påvirke tænkning. (Symbolbild/natur.wiki)

Ki-Chatbot bringer konspirationsteoretikere til at stille spørgsmålstegn ved deres overbevisning

Distrikter har vist, at kunstig intelligens (AI) kunne være et værdifuldt værktøj i kampen mod konspirationsteorier. De udviklede en chatbot, der kan tilbagevise falske oplysninger og tilskynde folk til at stille spørgsmålstegn ved deres måde at tænke på.

I en undersøgelse, der blev offentliggjort den 12. september i Science 1 med chat bot, hvilket gav detaljerede svar og argumenter, hvilket førte til en ændring i tænkning, der blev sidst til sidst for at tænke på flere måneder. Dette resultat indikerer, at fakta og beviser faktisk kan ændre folks mening.

"Dette arbejde satte spørgsmålstegn ved mange eksisterende litteratur, der antager, at vi lever i et post -det faktiske samfund," siger Katherine Fitzgerald, der undersøger konspirationsteorier og forkert information ved Queensland University of Technology i Brisbane, Australien.

Tidligere analyser har antydet, at folk tiltrækkes af konspirationsteorier, fordi de leder efter sikkerhed og sikkerhed i en turbulent verden. Men "det, vi opdagede i dette arbejde, modsiger denne traditionelle forklaring," siger coautor Thomas Costello, en psykologiplantage ved det amerikanske universitet i Washington DC. "En af de potentielt spændende anvendelser af denne forskning er, at KI kunne bruges til at tilbagevise konspirationsteorier i det virkelige liv."

skadelige ideer

Selvom mange konspirationsteorier næppe har nogen sociale virkninger, kan de, der får popularitet, "gøre reelle skader," siger Fitzgerald. Det henviser til angrebet på den amerikanske hovedstad den 6. januar 2021, som delvist blev drevet af krav om et manipuleret præsidentvalg i 2020 såvel som den anti-vaccine-retorik, der skader vaccinationsaccept mod Covid-19, som eksempler.

Det er muligt at overbevise folk om at ændre deres mening, men dette kan være tidsglassende og udmattende - og det store antal og forskellige konspirationsteorier gør det vanskeligt at løse problemet i større skala. Imidlertid ønskede Costello og hans kolleger at undersøge potentialet i store stemmemodeller (LLM'er) - disse kan behandle store mængder information hurtigt og generere menneskelige lignende svar - til bekæmpelse af konspirationsteorier. "De blev trænet på Internettet, kender alle konspirationsteorier og deres modargumenter, så det så ud til at være en meget naturlig tilføjelse," siger Costello.

tro det eller ej

Forskerne udviklede en skræddersyet chatbot ved hjælp af GPT-4 Turbo-den seneste LLM for ChatGPT-producenten Openai, med base i San Francisco, Californien-det blev trænet overbevisende mod sammensværgelser. De rekrutterede derefter over 1.000 deltagere, hvis demografi var enig med de amerikanske mennesker, der tæller i forhold til egenskaber som køn og etnicitet. Costello siger, at holdet var i stand til at vurdere chatbotens evne til at tilbagevise en række forskellige sammensværgelser ved at rekruttere mennesker med forskellige livserfaringer og deres egne perspektiver.

Hver deltager blev bedt om at beskrive en konspirationsteori for at forklare, hvorfor de betragtede det som sandt og for at udtrykke styrken af ​​deres overbevisning i procent. Disse detaljer blev delt med chatbot, som derefter havde en samtale med deltageren, hvor han citerede information og beviser, der undergravede eller tilbageviste sammensværgelsen og reagerede på deltagernes spørgsmål. Svarene på Chatbot var grundige og detaljerede og nåede ofte hundreder af ord. I gennemsnit tog hver samtale ca. 8 minutter.

Fremgangsmåden viste sig at være effektiv: selvtillidens selvtillid i deres valgte konspirationsteori faldt i gennemsnit med 21 %, efter at de interagerede med chatbot. Og 25 % af deltagerne ændrede sig fra høj tillid (over 50 %) til usikkerhed. Ændringen blev næppe mærkbar for kontrolgrupperne, der talte om et lignende emne med den samme chatbot. En opfølgningsundersøgelse to måneder senere viste, at ændringen af ​​perspektiv fortsatte med mange deltagere.

Selvom resultaterne af undersøgelsen er lovende, påpeger forskerne, at deltagerne blev betalt undersøgelsesdeltagere og muligvis ikke er repræsentative for mennesker, der er dybt involveret i konspirationsteorier.

effektiv indgriben

Fitzgerald er begejstret for AI's potentiale til at handle mod sammensværgelser. "Hvis vi kan finde en måde at forhindre offline vold, er det altid en god ting," siger hun. Det antyder, at følger -UP -undersøgelser kunne undersøge forskellige målinger for at evaluere effektiviteten af ​​chatbotten, eller at undersøgelsen kunne gentages ved hjælp af LLM'er med mindre avancerede sikkerhedsforanstaltninger for at sikre, at de ikke intensiverer konspiratorisk tænkning.

Tidligere undersøgelser har udtrykt bekymring over AI -chatbots tendens til at "hallucinere" forkerte oplysninger. Undersøgelsen sørgede imidlertid for at undgå denne mulighed - Costellos team bad en professionel faktuel tester om at evaluere nøjagtigheden af ​​de oplysninger, der blev leveret af Chatbot, som bekræftede, at ingen af ​​udsagnene var forkerte eller politisk partiske.

Costello siger, at teamet planlægger yderligere eksperimenter til at teste forskellige strategier i Chatbot, for eksempel for at undersøge, hvad der sker, når chatbotsens svar er uhøflige. De håber at lære mere om, hvad der gjorde denne specielle undersøgelse så vellykket gennem identifikationen "af de eksperimenter, hvor overbevisningen ikke længere fungerer".

  1. >>

    costello, T. H., Pennycook, G. & Rand, D. G. Science 385 , EADQ1814 (2024).

    artikel