Image

Чат-боты удивительно эффективны в развенчании теорий заговора

Оказывается, многие верующие реагируют положительно, когда им представляют правильные доказательства и аргументы.

0a79d4db3957d347d226896c25dd3741

Матье Бурель

Стало аксиомой, что одни лишь факты не способны изменить мнение людей. Пожалуй, нигде это не проявляется так ясно, как в случае с теориями заговора: многие считают, что конспирологов невозможно переубедить.

Но это не обязательно так. Оказывается, многие сторонники теории заговора действительно реагируют на доказательства и аргументы — информацию, которую теперь легко донести в форме персонализированного разговора с чат-ботом на основе искусственного интеллекта.

В исследовании, опубликованном в журнале Science в этом году, более 2000 сторонников теории заговора участвовали в примерно восьмиминутной беседе с DebunkBot, моделью, которую мы построили на основе OpenAI GPT-4 Turbo (самой современной модели GPT на тот момент). Участники начали с того, что своими словами записали теорию заговора, в которую они верили, и доказательства, делавшие эту теорию убедительной для них. Затем мы поручили модели ИИ убедить пользователя перестать верить в этот заговор и принять менее конспирологический взгляд на мир. Трёхраундный текстовый чат с моделью ИИ (длившийся в среднем 8,4 минуты) привёл к 20% снижению уверенности участников в этой вере, и примерно каждый четвёртый участник — все из которых до этого верили в теорию заговора — указал, что не верит в неё после разговора. Этот эффект справедлив как для классических теорий заговора (например, убийства Джона Кеннеди или мистификации высадки на Луну), так и для более современных, политически окрашенных (например, связанных с выборами 2020 года и COVID-19).

Эта история является частью серии статей MIT Technology Review «Новая эра заговоров», в которой рассказывается о том, как нынешний бум теорий заговора меняет науку и технологии.

Это хорошая новость, учитывая огромную роль, которую необоснованные теории заговора играют в современной политической жизни. Поэтому, несмотря на распространённые и обоснованные опасения, что генеративный ИИ — мощный инструмент распространения дезинформации, наша работа показывает, что он также может стать частью решения.

Даже у тех, кто начинал разговор, будучи абсолютно уверенным в истинности своей теории заговора, или указывал, что она крайне важна для их личного мировоззрения, наблюдалось заметное снижение веры. Примечательно, что эффект был очень стойким; мы повторили опрос участников через два месяца и отметили столь же значительное снижение веры в теорию заговора, как и сразу после разговора.

Наши эксперименты показывают, что многие верующие относительно рациональны, но дезинформированы, и предоставление им своевременных и точных фактов может иметь большое значение. Теории заговора могут быть понятны разумным людям, которые просто никогда не слышали внятных, не связанных с теориями заговора объяснений событий, на которых они зациклены. Это может показаться удивительным. Но многие конспирологические утверждения, хотя и ошибочны, на первый взгляд кажутся разумными и требуют специальных, эзотерических знаний для их оценки и опровержения.

Чат-боты могут убедить людей перестать верить в теории заговора. Читать далее

Например, отрицатели событий 11 сентября часто указывают на утверждение, что авиатопливо не горит достаточно сильно, чтобы расплавить сталь, как на доказательство того, что самолеты не виноваты в обрушении башен-близнецов. Но чат-бот отвечает, что, хотя это и правда, Американский институт стальных конструкций утверждает, что авиатопливо горит достаточно сильно, чтобы снизить прочность стали более чем на 50%, а этого более чем достаточно, чтобы вызвать обрушение таких башен.

Хотя у нас сейчас больше доступа к фактической информации, чем когда-либо прежде, эффективно искать информацию в этом огромном массиве знаний крайне сложно. Чтобы найти истину таким способом, нужно знать, что гуглить — или кого слушать — и быть достаточно мотивированным, чтобы искать противоречивую информацию. Проведение такого поиска каждый раз, когда мы слышим новое утверждение, сопряжено с большими временными и профессиональными барьерами, поэтому легко принять за чистую монету наткнувшись на конспирологическую информацию. И большинство потенциальных разоблачителей за столом в День благодарения допускают элементарные ошибки, которых избегает искусственный интеллект: знаете ли вы навскидку температуру плавления и предел прочности стали? А когда ваш родственник, пытаясь вас поправить, называет вас идиотом, способны ли вы сохранить самообладание?

Приложив достаточно усилий, люди почти наверняка смогли бы исследовать и предоставлять факты так же, как ИИ в наших экспериментах. В последующем эксперименте мы обнаружили, что опровержение с помощью ИИ было столь же эффективным, если бы мы говорили участникам, что они разговаривают с экспертом, а не с ИИ. Так что дело не в том, что эффект опровержения свойствен только ИИ. В целом, факты и доказательства, предоставленные людьми, тоже сработали бы. Но человеку потребовалось бы много времени и концентрации, чтобы собрать эти факты. Генеративный ИИ может гораздо эффективнее выполнять когнитивную работу по проверке фактов и опровержению теорий заговора.

В другом крупном последующем эксперименте мы обнаружили, что причиной эффекта опровержения были именно факты и доказательства, предоставленные моделью: такие факторы, как информирование людей о том, что чат-бот попытается отговорить их от своих убеждений, не снижали его эффективности, в то время как указание модели попытаться убедить своего собеседника без использования фактов и доказательств полностью устраняло этот эффект.

Хотя недостатки и галлюцинации этих моделей хорошо документированы, наши результаты показывают, что попытки разоблачения достаточно широко распространены в интернете, чтобы поддерживать относительную точность обсуждений, посвященных теориям заговора. Когда мы наняли профессионального фактчекера для оценки утверждений GPT-4, он обнаружил, что более 99% утверждений были оценены как истинные (и не политически предвзятые). Кроме того, в тех немногих случаях, когда участники называли теории заговора, которые оказались правдой (например, MK Ultra, программа экспериментов ЦРУ на людях, проводившаяся в 1950-х годах), ИИ-чат-бот подтверждал их верные убеждения, а не ошибочно разубеждал их в них.

До сих пор, во многом по необходимости, меры по борьбе с теориями заговора носили преимущественно профилактический характер — они были направлены на то, чтобы не дать людям скатиться в кроличью нору, а не на то, чтобы вытащить их обратно. Теперь, благодаря достижениям в области генеративного искусственного интеллекта, у нас есть инструмент, который может изменить мнение сторонников теории заговора, используя доказательства.

Боты, призванные опровергать теории заговора, можно развернуть в социальных сетях для взаимодействия с теми, кто делится конспирологическим контентом, включая других чат-ботов на основе искусственного интеллекта, распространяющих теории заговора. Google также может связать модели искусственного интеллекта, опровергающие теории заговора, с поисковыми системами, чтобы предоставлять фактические ответы на запросы, связанные с теориями заговора. И вместо того, чтобы спорить со своим дядей-конспирологом за обеденным столом, вы можете просто передать ему свой телефон и попросить его поговорить с искусственным интеллектом.

Конечно, здесь есть гораздо более глубокие последствия для того, как мы, люди, понимаем окружающий мир. Широко распространено мнение, что мы живем в мире «постправды», где поляризация и политика затмевают факты и доказательства. Согласно этому утверждению, наши страсти берут верх над правдой, логические рассуждения устарели, и единственный способ эффективно изменить мнение людей — это психологические тактики, такие как представление убедительных личных историй или изменение восприятия социальных норм. Если это так, то типичная, основанная на дискурсе, работа по сосуществованию в демократическом обществе бесполезна.

Но факты не мертвы. Наши выводы о теориях заговора являются последними — и, возможно, самыми радикальными — в формирующемся массиве исследований, демонстрирующих убедительную силу фактов и доказательств. Например, хотя когда-то считалось, что исправление лжи, соответствующей чьим-либо политическим взглядам, лишь заставит людей ещё больше углубиться в неё и поверить в неё, сама идея «обратного эффекта» была опровергнута: многие исследования неизменно показывают, что исправления и предупреждающие надписи снижают веру в ложь и распространение её — даже среди тех, кто больше всего не доверяет фактчекерам, вносящим эти исправления. Аналогичным образом, аргументы, основанные на доказательствах, могут изменить мнение сторонников политических взглядов по политическим вопросам, даже если им активно напоминают, что аргумент противоречит позиции лидера их партии. И простое напоминание людям о необходимости задуматься о точности контента, прежде чем делиться им, может существенно сократить распространение дезинформации.

И если факты не устарели, то есть надежда на демократию, хотя для этого, возможно, потребуется консенсусный набор фактов, на основе которого могут действовать противоборствующие фракции. Действительно, существуют широко распространённые межпартийные разногласия по основным фактам и тревожный уровень веры в теории заговора. Однако это не обязательно означает, что наше сознание неизбежно деформировано нашими политическими взглядами и идентичностью. Столкнувшись с доказательствами — даже неудобными или неприятными — многие люди действительно меняют своё мышление. Поэтому, если удастся достаточно широко распространить точную информацию, возможно, с помощью ИИ, мы сможем восстановить общую фактическую основу, которой так не хватает современному обществу.

Вы можете самостоятельно опробовать нашего бота-разоблачителя на debunkbot.com .

Томас Костелло — доцент кафедры социальных наук и принятия решений в Университете Карнеги — Меллона. Его исследования объединяют психологию, политологию и взаимодействие человека и компьютера, чтобы изучить, откуда берутся наши точки зрения, как они различаются у разных людей и почему меняются, а также масштабное влияние искусственного интеллекта на эти процессы.

Гордон Пенникук — стипендиат программы «Лидерство» имени Дороти и Ариз Мехта и доцент кафедры психологии Корнеллского университета. Он исследует причины и последствия аналитического мышления, исследуя, как интуитивное и делиберативное мышление влияют на принятие решений, чтобы понять ошибки, лежащие в основе таких проблем, как бездействие в борьбе с изменением климата, вредные привычки в отношении здоровья и политическая поляризация.

Дэвид Рэнд — профессор информатики, маркетинга и управленческих коммуникаций, а также психологии в Корнеллском университете. Он использует подходы вычислительной социальной науки и когнитивной науки, чтобы исследовать, как диалог между человеком и искусственным интеллектом может исправить неверные убеждения, почему люди делятся ложными идеями и как снизить политическую поляризацию и способствовать сотрудничеству.

Источник: www.technologyreview.com

✅ Найденные теги: новости, чат-боты

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых