Изследователите показаха, че изкуственият интелект (AI) може да бъде ценен инструмент в борбата срещу теориите на конспирацията. Те разработиха чатбот, който може да опровергае невярна информация и да насърчи хората да поставят под въпрос начина им на мислене.
В проучване, публикувано на 12 септември вНаукабеше публикуван 1, участниците прекараха няколко минути с чатбота, предоставяйки подробни отговори и аргументи, което доведе до промяна в мисленето, която продължи няколко месеца. Този резултат предполага, че фактите и доказателствата наистина могат да променят съзнанието на хората.
„Тази работа оспори голяма част от съществуващата литература, която приема, че живеем в общество на пост-истината“, казва Катрин Фицджералд, която изследва теориите на конспирацията и дезинформацията в Куинсландския технологичен университет в Бризбейн, Австралия.
Предишен анализ предполага, че хората са привлечени от теории на конспирацията, защото търсят сигурност и сигурност в един бурен свят. Но „това, което открихме в тази работа, противоречи на това традиционно обяснение“, казва съавторът Томас Костело, изследовател по психология в Американския университет във Вашингтон. „Едно от потенциално вълнуващите приложения на това изследване е, че AI може да се използва за развенчаване на теории на конспирацията в реалния живот.“
Вредни идеи
Въпреки че много теории на конспирацията имат малко социално въздействие, тези, които печелят популярност, могат да „причинят истинска вреда“, казва Фицджералд. Тя посочва като примери атаката срещу Капитолия на САЩ на 6 януари 2021 г., която беше подхранвана отчасти от твърдения за фалшифицирани президентски избори през 2020 г., както и реториката срещу ваксините, която навреди на приемането на ваксинацията срещу COVID-19.
Възможно е да убедите хората да променят мнението си, но това може да отнеме много време и да бъде стресиращо - а самият брой и разнообразие от теории на конспирацията затруднява справянето с проблема в по-голям мащаб. Но Костело и колегите му искаха да проучат потенциала на големите езикови модели (LLM) - които могат бързо да обработват големи количества информация и да генерират човешки отговори - за борба с теориите на конспирацията. „Те са обучени в интернет и знаят всички теории на конспирацията и техните контрааргументи, така че изглеждаше като много естествено прилягане“, казва Костело.
Вярвате или не
Изследователите разработиха персонализиран чатбот, използвайки GPT-4 Turbo – най-новата LLM от базирания в Сан Франциско, Калифорния създател на ChatGPT OpenAI – който беше обучен да се аргументира убедително срещу конспирации. След това те набират над 1000 участници, чиито демографски данни съответстват на преброяването в САЩ по характеристики като пол и етническа принадлежност. Костело казва, че чрез набиране на „хора с различен житейски опит и собствени гледни точки“, екипът е успял да оцени способността на чатбота да развенчава различни конспирации.
Всеки участник беше помолен да опише теория на конспирацията, да обясни защо вярва, че е вярна и да изрази силата на вярата си като процент. Тези подробности бяха споделени с чатбота, който след това се включи в разговор с участника, като цитира информация и доказателства, които подкопават или опровергават конспирацията, и отговаря на въпросите на участника. Отговорите на чатбота бяха задълбочени и подробни, като често достигаха стотици думи. Средно всеки разговор е продължил около 8 минути.
Подходът се оказа ефективен: доверието на участниците в избраната от тях теория на конспирацията падна средно с 21% след взаимодействие с чатбота. И 25% от участниците преминаха от висока увереност (над 50%) към несигурност. Промяната обаче беше едва забележима за контролните групи, които говориха със същия чатбот по подобна тема. Последващо проучване два месеца по-късно показа, че промяната в перспективата продължава за много участници.
Въпреки че резултатите от проучването са обещаващи, изследователите отбелязват, че участниците са били платени участници в проучването и може да не са представителни за хора, дълбоко потопени в теории на конспирацията.
Ефективна намеса
Фицджералд е развълнуван от потенциала на ИИ да се бори с конспирациите. „Ако можем да намерим начин да предотвратим насилието офлайн, това винаги е добре“, казва тя. Тя предполага, че последващите изследвания могат да изследват различни показатели, за да оценят ефективността на чатбота, или проучването може да се повтори, като се използват LLM с по-малко усъвършенствани мерки за сигурност, за да се гарантира, че те не засилват конспиративното мислене.
Предишни проучвания повдигнаха опасения относно склонността на чат ботовете с изкуствен интелект да „халюцинират“ невярна информация. Проучването обаче внимава да избегне тази възможност – екипът на Костело помоли професионален проверяващ фактите да оцени точността на информацията, предоставена от чатбота, който потвърди, че нито едно от твърденията не е невярно или политически пристрастно.
Костело казва, че екипът планира по-нататъшни експерименти, за да тества различни стратегии на чатбота, като например проучване какво се случва, когато отговорите на чатбота са груби. Като идентифицират „експериментите, при които вярата вече не работи“, те се надяват да научат повече за това какво направи това конкретно изследване толкова успешно.
