Новые исследования показывают, что чат-боты могут в значительной степени влиять на выбор избирателей. Полученные результаты поднимают насущные вопросы о роли искусственного интеллекта в будущих выборах
Дени Эллис Бешар под редакцией Клэр Кэмерон

Присоединяйтесь к нашему сообществу любителей науки!
Подпишитесь на нашу бесплатную ежедневную рассылку новостейВведите свой адрес электронной почтыЯ соглашаюсь с тем, что моя информация будет обрабатываться в соответствии с Политикой конфиденциальности Scientific American и Springer Nature Limited. Мы используем сторонние сервисы как для проверки, так и для доставки электронной почты. Предоставляя свой адрес электронной почты, вы также даете согласие на то, чтобы этот адрес электронной почты был передан третьим лицам для этих целей.Зарегистрируйтесь
Забудьте о стуке в дверь и телефонных звонках — чат-боты могут стать будущим убедительных политические кампании.Опасения по поводу того, может ли искусственный интеллект влиять на выборы, не являются чем-то новым. Но пара новых статей, опубликованных сегодня в журналах Nature и Science, показывают, что боты могут успешно изменять политические взгляды людей — даже если то, что утверждают боты, неверно.
Полученные результаты противоречат господствующей логике о том, что изменить мнение людей о политике чрезвычайно сложно, говорит Дэвид Рэнд, старший автор обеих статей и профессор информатика, маркетинг и управленческие коммуникации в Корнельском университете, который специализируется на искусственном интеллекте.
О поддержке научной журналистики
Если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистику, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.Стефан Левандовски, ученый-когнитивист из Бристольского университета в Англии, который не принимал участия в новых исследованиях, говорит, что они поднимают важные вопросы: «Во-первых, как мы можем защититься от&»или, по крайней мере, определить, когда LLM [большие языковые модели] были разработаны с учетом определенной идеологии, которая противоречит демократии?» — спрашивает он. «Во-вторых, как мы можем гарантировать, что «оперативное проектирование» не может быть использовано в существующих моделях для создания антидемократических средств убеждения?”
Исследователи изучили более 20 моделей искусственного интеллекта, включая самые популярные версии ChatGPT, Grok, DeepSeek и Meta-Llama.
В эксперименте, описанном в статье Nature, Рэнд и его коллеги набрали более 2000 взрослых американцев и попросили их оценить свои предпочтения в отношении кандидатов по шкале от 0 до 100. Затем команда попросила участников пообщаться с искусственным интеллектом, который был обучен отстаивать интересы одного из двух кандидатов на президентских выборах в США в 2024 году: Камалы Харрис или Дональда Трампа. После беседы участники снова оценили своих предпочтений в отношении кандидата.
«Это подтолкнуло людей примерно на пару процентных пунктов в сторону кандидата, за которого выступала модель, что не является огромным эффектом, но значительно превосходит то, что предлагалось. этого можно было бы ожидать от традиционной видеорекламы или рекламных кампаний», — говорит Рэнд. Согласно статье, даже месяц спустя многие участники все еще чувствовали, что боты их убедили.
Результаты были еще более поразительными среди примерно 1500 участников в Канаде и 2100 в Польше. Но интересно, что наибольший сдвиг во мнениях произошел в случае, когда 500 человек поговорили с ботами о голосовании по всему штату за легализацию психоделиков в Массачусетсе.
Примечательно, что если боты не использовали доказательства для подкрепления своих аргументов, они были менее убедительны. И в то время как модели искусственного интеллекта в основном придерживались фактов, «модели, которые выступали за правых кандидатов — и, в частности, модель, поддерживающая Трампа, — делали гораздо более неточные заявления», — говорит Рэнд. Эта закономерность сохранялась во всех странах и моделях искусственного интеллекта, хотя люди, которые были менее информированы о политике в целом, были наиболее убедительными.
В статье Science рассматривались те же вопросы, но с другой стороны. перспектива дизайна чат-бота. В ходе трех исследований, проведенных в Великобритании, почти 77 000 участников обсуждали политические вопросы с помощью чат-ботов. Размер модели искусственного интеллекта и то, как много бот знает об участнике, оказали лишь незначительное влияние на степень ее убедительности. Скорее всего, наибольший выигрыш был получен благодаря тому, как модель была обучена и проинструктирована представлять фактические данные.
«Чем больше фактических утверждений содержала модель, тем более убедительной она была», — говорит Рэнд. Проблема возникает, когда у такого бота заканчиваются точные доказательства его аргументации. «Ему приходится хвататься за соломинку и выдвигать претензии», — говорит он.
Итан Портер, содиректор Института данных, демократии и политики Университета Джорджа Вашингтона, описывает результаты как «важные вехи в литературе».
«В отличие от некоторых наиболее пессимистичных оценок, они ясно дают понять, что факты и свидетельства не отвергаются, если они не согласуются с чьими-либо прежними убеждениями — вместо этого факты и свидетельства могут формировать основа успешного убеждения», — говорит Портер, который не участвовал в публикациях.
Вывод о том, что людей наиболее эффективно убеждают факты, а не эмоции или ощущение принадлежности к группе, обнадеживает, говорит Адина Роскис, философ и ученый-когнитивист из Калифорнийского университета в Санта-Барбаре., который также не принимал участия в исследованиях. Тем не менее, предупреждает она, «плохая новость заключается в том, что люди подвержены влиянию очевидных фактов, независимо от их точности».






















