Оказывается, многие верующие реагируют положительно, когда им представляют правильные доказательства и аргументы.

Стало аксиомой, что одни лишь факты не способны изменить мнение людей. Пожалуй, нигде это не проявляется так ясно, как в случае с теориями заговора: многие считают, что конспирологов невозможно переубедить.
Но это не обязательно так. Оказывается, многие сторонники теории заговора действительно реагируют на доказательства и аргументы — информацию, которую теперь легко донести в форме персонализированного разговора с чат-ботом на основе искусственного интеллекта.
В исследовании, опубликованном в журнале Science в этом году, более 2000 сторонников теории заговора участвовали в примерно восьмиминутной беседе с DebunkBot, моделью, которую мы построили на основе OpenAI GPT-4 Turbo (самой современной модели GPT на тот момент). Участники начали с того, что своими словами записали теорию заговора, в которую они верили, и доказательства, делавшие эту теорию убедительной для них. Затем мы поручили модели ИИ убедить пользователя перестать верить в этот заговор и принять менее конспирологический взгляд на мир. Трёхраундный текстовый чат с моделью ИИ (длившийся в среднем 8,4 минуты) привёл к 20% снижению уверенности участников в этой вере, и примерно каждый четвёртый участник — все из которых до этого верили в теорию заговора — указал, что не верит в неё после разговора. Этот эффект справедлив как для классических теорий заговора (например, убийства Джона Кеннеди или мистификации высадки на Луну), так и для более современных, политически окрашенных (например, связанных с выборами 2020 года и COVID-19).
Эта история является частью серии статей MIT Technology Review «Новая эра заговоров», в которой рассказывается о том, как нынешний бум теорий заговора меняет науку и технологии.
Это хорошая новость, учитывая огромную роль, которую необоснованные теории заговора играют в современной политической жизни. Поэтому, несмотря на распространённые и обоснованные опасения, что генеративный ИИ — мощный инструмент распространения дезинформации, наша работа показывает, что он также может стать частью решения.
Даже у тех, кто начинал разговор, будучи абсолютно уверенным в истинности своей теории заговора, или указывал, что она крайне важна для их личного мировоззрения, наблюдалось заметное снижение веры. Примечательно, что эффект был очень стойким; мы повторили опрос участников через два месяца и отметили столь же значительное снижение веры в теорию заговора, как и сразу после разговора.
Наши эксперименты показывают, что многие верующие относительно рациональны, но дезинформированы, и предоставление им своевременных и точных фактов может иметь большое значение. Теории заговора могут быть понятны разумным людям, которые просто никогда не слышали внятных, не связанных с теориями заговора объяснений событий, на которых они зациклены. Это может показаться удивительным. Но многие конспирологические утверждения, хотя и ошибочны, на первый взгляд кажутся разумными и требуют специальных, эзотерических знаний для их оценки и опровержения.
Связанная история
Например, отрицатели событий 11 сентября часто указывают на утверждение, что авиатопливо не горит достаточно сильно, чтобы расплавить сталь, как на доказательство того, что самолеты не виноваты в обрушении башен-близнецов. Но чат-бот отвечает, что, хотя это и правда, Американский институт стальных конструкций утверждает, что авиатопливо горит достаточно сильно, чтобы снизить прочность стали более чем на 50%, а этого более чем достаточно, чтобы вызвать обрушение таких башен.
Хотя у нас сейчас больше доступа к фактической информации, чем когда-либо прежде, эффективно искать информацию в этом огромном массиве знаний крайне сложно. Чтобы найти истину таким способом, нужно знать, что гуглить — или кого слушать — и быть достаточно мотивированным, чтобы искать противоречивую информацию. Проведение такого поиска каждый раз, когда мы слышим новое утверждение, сопряжено с большими временными и профессиональными барьерами, поэтому легко принять за чистую монету наткнувшись на конспирологическую информацию. И большинство потенциальных разоблачителей за столом в День благодарения допускают элементарные ошибки, которых избегает искусственный интеллект: знаете ли вы навскидку температуру плавления и предел прочности стали? А когда ваш родственник, пытаясь вас поправить, называет вас идиотом, способны ли вы сохранить самообладание?
Приложив достаточно усилий, люди почти наверняка смогли бы исследовать и предоставлять факты так же, как ИИ в наших экспериментах. В последующем эксперименте мы обнаружили, что опровержение с помощью ИИ было столь же эффективным, если бы мы говорили участникам, что они разговаривают с экспертом, а не с ИИ. Так что дело не в том, что эффект опровержения свойствен только ИИ. В целом, факты и доказательства, предоставленные людьми, тоже сработали бы. Но человеку потребовалось бы много времени и концентрации, чтобы собрать эти факты. Генеративный ИИ может гораздо эффективнее выполнять когнитивную работу по проверке фактов и опровержению теорий заговора.
В другом крупном последующем эксперименте мы обнаружили, что причиной эффекта опровержения были именно факты и доказательства, предоставленные моделью: такие факторы, как информирование людей о том, что чат-бот попытается отговорить их от своих убеждений, не снижали его эффективности, в то время как указание модели попытаться убедить своего собеседника без использования фактов и доказательств полностью устраняло этот эффект.
Хотя недостатки и галлюцинации этих моделей хорошо документированы, наши результаты показывают, что попытки разоблачения достаточно широко распространены в интернете, чтобы поддерживать относительную точность обсуждений, посвященных теориям заговора. Когда мы наняли профессионального фактчекера для оценки утверждений GPT-4, он обнаружил, что более 99% утверждений были оценены как истинные (и не политически предвзятые). Кроме того, в тех немногих случаях, когда участники называли теории заговора, которые оказались правдой (например, MK Ultra, программа экспериментов ЦРУ на людях, проводившаяся в 1950-х годах), ИИ-чат-бот подтверждал их верные убеждения, а не ошибочно разубеждал их в них.
До сих пор, во многом по необходимости, меры по борьбе с теориями заговора носили преимущественно профилактический характер — они были направлены на то, чтобы не дать людям скатиться в кроличью нору, а не на то, чтобы вытащить их обратно. Теперь, благодаря достижениям в области генеративного искусственного интеллекта, у нас есть инструмент, который может изменить мнение сторонников теории заговора, используя доказательства.
Боты, призванные опровергать теории заговора, можно развернуть в социальных сетях для взаимодействия с теми, кто делится конспирологическим контентом, включая других чат-ботов на основе искусственного интеллекта, распространяющих теории заговора. Google также может связать модели искусственного интеллекта, опровергающие теории заговора, с поисковыми системами, чтобы предоставлять фактические ответы на запросы, связанные с теориями заговора. И вместо того, чтобы спорить со своим дядей-конспирологом за обеденным столом, вы можете просто передать ему свой телефон и попросить его поговорить с искусственным интеллектом.
Конечно, здесь есть гораздо более глубокие последствия для того, как мы, люди, понимаем окружающий мир. Широко распространено мнение, что мы живем в мире «постправды», где поляризация и политика затмевают факты и доказательства. Согласно этому утверждению, наши страсти берут верх над правдой, логические рассуждения устарели, и единственный способ эффективно изменить мнение людей — это психологические тактики, такие как представление убедительных личных историй или изменение восприятия социальных норм. Если это так, то типичная, основанная на дискурсе, работа по сосуществованию в демократическом обществе бесполезна.
Но факты не мертвы. Наши выводы о теориях заговора являются последними — и, возможно, самыми радикальными — в формирующемся массиве исследований, демонстрирующих убедительную силу фактов и доказательств. Например, хотя когда-то считалось, что исправление лжи, соответствующей чьим-либо политическим взглядам, лишь заставит людей ещё больше углубиться в неё и поверить в неё, сама идея «обратного эффекта» была опровергнута: многие исследования неизменно показывают, что исправления и предупреждающие надписи снижают веру в ложь и распространение её — даже среди тех, кто больше всего не доверяет фактчекерам, вносящим эти исправления. Аналогичным образом, аргументы, основанные на доказательствах, могут изменить мнение сторонников политических взглядов по политическим вопросам, даже если им активно напоминают, что аргумент противоречит позиции лидера их партии. И простое напоминание людям о необходимости задуматься о точности контента, прежде чем делиться им, может существенно сократить распространение дезинформации.
И если факты не устарели, то есть надежда на демократию, хотя для этого, возможно, потребуется консенсусный набор фактов, на основе которого могут действовать противоборствующие фракции. Действительно, существуют широко распространённые межпартийные разногласия по основным фактам и тревожный уровень веры в теории заговора. Однако это не обязательно означает, что наше сознание неизбежно деформировано нашими политическими взглядами и идентичностью. Столкнувшись с доказательствами — даже неудобными или неприятными — многие люди действительно меняют своё мышление. Поэтому, если удастся достаточно широко распространить точную информацию, возможно, с помощью ИИ, мы сможем восстановить общую фактическую основу, которой так не хватает современному обществу.
Вы можете самостоятельно опробовать нашего бота-разоблачителя на debunkbot.com .
Томас Костелло — доцент кафедры социальных наук и принятия решений в Университете Карнеги — Меллона. Его исследования объединяют психологию, политологию и взаимодействие человека и компьютера, чтобы изучить, откуда берутся наши точки зрения, как они различаются у разных людей и почему меняются, а также масштабное влияние искусственного интеллекта на эти процессы.
Гордон Пенникук — стипендиат программы «Лидерство» имени Дороти и Ариз Мехта и доцент кафедры психологии Корнеллского университета. Он исследует причины и последствия аналитического мышления, исследуя, как интуитивное и делиберативное мышление влияют на принятие решений, чтобы понять ошибки, лежащие в основе таких проблем, как бездействие в борьбе с изменением климата, вредные привычки в отношении здоровья и политическая поляризация.
Дэвид Рэнд — профессор информатики, маркетинга и управленческих коммуникаций, а также психологии в Корнеллском университете. Он использует подходы вычислительной социальной науки и когнитивной науки, чтобы исследовать, как диалог между человеком и искусственным интеллектом может исправить неверные убеждения, почему люди делятся ложными идеями и как снизить политическую поляризацию и способствовать сотрудничеству.
Источник: www.technologyreview.com



























