Телефон с сообщением и сердцем. Концепция любви и общения онлайн.

Чат-боты с искусственным интеллектом — это подлизы, и это может повлиять на ваши отношения

Новое исследование подхалимажа ИИ показывает, как обращение за советом к покладистым чат-ботам может изменить ваше поведение

Мультяшная иллюстрация экрана смартфона с эмодзи-сердечком и речевым пузырем

Чат-боты с большой языковой моделью (LLM) склонны к лести. Новое исследование показало, что если вы обратитесь за советом к модели, то в среднем на 49 процентов чаще, чем к человеку, вы подтвердите свою существующую точку зрения, а не оспорите ее. Исследователи продемонстрировали, что получение межличностных советов от льстивого чат-бота с искусственным интеллектом может сделать людей менее склонными к извинениям и более убежденными в своей правоте.

Людям нравится то, что говорят такие чат-боты. Участники нового исследования, которое было опубликовано сегодня в журнале Science, предпочли подхалимские модели искусственного интеллекта другим моделям, которые давали им прямой ответ, даже когда льстецы давали участникам плохие советы.

«Чем больше вы работаете с LLM, тем чаще вы видите эти тонкие подхалимские комментарии. И это заставляет нас чувствовать себя хорошо», — говорит Анат Перри, социальный психолог из Еврейского университета в Иерусалиме, которая не участвовала в новом исследовании, но написала сопроводительную статью с комментариями. «Что страшно, — говорит она, — так это то, что мы на самом деле не осознаем этих опасностей».

О поддержке научной журналистики

Если вам понравилась эта статья, рассмотрите поддержите нашу журналистскую деятельность, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.

Поскольку миллионы людей обращаются к ИИ за поддержкой и руководством, эта уступчивость может представлять собой незаметную, но серьезную угрозу. В новом исследовании исследователи сначала проанализировали поведение 11 ведущих LLM, включая фирменные модели, такие как GPT-4o от OpenAI и Gemini от Google, а также более прозрачные модели, такие как модели DeepSeek. Ведущий автор исследования Майра Ченг (Myra Cheng) из Стэнфордского университета и ее коллеги подготовили подборку вопросов-советов для магистров, в том числе один из популярного форума Reddit r/AmItheAsshole, где люди публикуют сообщения о межличностных конфликтах и спрашивают, виноваты ли они сами.

Исследователи проанализировали ситуации, в которых респонденты-люди в основном соглашались с тем, что плакат был неправильным. Например, на одном из постеров был задан вопрос, не следовало ли им оставлять свой мусор в парке, где нет мусорных баков. Тем не менее, модели искусственного интеллекта неявно или явно одобряли действия таких постеров Reddit в среднем в 51 проценте случаев. Они также ответили на плакаты на 48 процентов чаще, чем люди, отвечая на другой набор открытых вопросов-рекомендаций. И когда им был представлен набор «проблемных» действий, которые были обманными, аморальными или даже незаконными (например, подделка подписи руководителя работ), модели в среднем одобрили 47 процентов из них.

Результаты были поразительными. Люди, подвергшиеся воздействию льстивого ИИ в обоих экспериментах, значительно реже говорили, что им следует извиниться или изменить свое поведение в будущем. Они с большей вероятностью считали себя правыми и с большей вероятностью говорили, что в будущем вернутся к сотрудничеству с LLM.

Авторы пришли к выводу, что подхалимаж ИИ это «отдельная и в настоящее время нерегулируемая категория вреда», для предотвращения которой потребовались бы новые правила. Они писали, что это может включать в себя «поведенческие» аудиты, которые специально проверяли бы уровень подхалимажа модели до того, как она будет представлена общественности.

Тенденция ИИ к уступчивости также может подпитывать у пользователей бредовые спирали, отмечают эксперты. OpenAI, в частности, подвергся критике за подхалимаж ИИ — особенно за модель GPT-4o компании. В прошлом году компания опубликовала сообщение, в котором признала, что некоторые версии модели были «чрезмерно лестными или приятными» и что это было «создание дополнительных барьеров для повышения честности и прозрачности». OpenAI не ответил на запрос о комментариях. Google отказался комментировать свою собственную модель Gemini.

В новом исследовании рассматривались только краткие взаимодействия с чат-ботами. Дана Калаччи, которая изучает социальное влияние ИИ в Университете штата Пенсильвания и не участвовала в новом исследовании, обнаружила, что подхалимаж, как правило, усиливается по мере того, как пользователи дольше взаимодействуют с моделью. «Я думаю, что со временем это усугубляется», — говорит она.

Магистры также очень чувствительны к изменениям на поверхностном уровне в том, как задаются вопросы, отмечает Калаччи. Их моральные суждения «хрупки», как недавно обнаружили исследователи в ходе непроверенного исследования; изменение местоимений, интонации и других указаний в сценариях с «жульничеством» может изменить рекомендации моделей. Это говорит о том, что «то, что они показывают в этой статье, является своего рода демонстрацией того, насколько подхалимскими могут быть эти модели», — говорит Калаччи.Кэтрин Этвелл, изучающая подхалимаж ИИ в Северо-Восточном университете, отмечает, что со временем люди также могут стать более зависимыми от этого «чрезмерно утверждающего поведения». «Я думаю, что существует огромный риск того, что люди просто откажутся от этих моделей, вместо того чтобы разговаривать с людьми», — говорит она.

Обращение за советом к реальным людям может привести к «социальным трениям», отмечает Перри. «Эти трения не приносят нам радости, но мы извлекаем из них уроки». Эта обратная связь является важной частью того, как мы вписываемся в наш социальный мир. «Чем больше мы получаем этой искаженной обратной связи, которая на самом деле не дает нам реального отрыва от реального мира, тем меньше мы знаем, как на самом деле ориентироваться в реальном социальном мире», — говорит она.

Коди Тернер, специалист по этике из Университета Бентли, также говорит, что льстивый ИИ может причинить вред, подорвав нашу способность собирать знания. «На самом фундаментальном уровне это просто лишает человека, с которым он общается, правды», — говорит он. Это может быть особенно ощутимо, если исходить от компьютера, который пользователи подсознательно считают более объективным, чем человек. «Это несоответствие имеет серьезные психологические последствия», — говорит он.

✅ Найденные теги: искусственный интеллект, новости, Отношения, чат-боты

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Интерфейс управления командой агентов для исследования тем Reddit, веба и Twitter.
Карта Эквадора на фоне Земли, проигрывается Radio Complice FM.
Программное окно Dangerzone, выбор и сохранение безопасных PDF-документов.
ideipro logotyp
Интерфейс Sentry с описанием ошибок и деталями инцидента для macOS.
Карта Германии с маршрутом, указателями и видом на сельскую местность рядом с Штраленом.
Веб-дизайн с графиками и изображениями: апельсины, диаграммы, кот с бокалом.
ideipro logotyp
ideipro logotyp
Image Not Found
Мужчина выступает с речью на конференции Eli Lilly, красный фон.

FDA одобрило препарат GLP-1 компании Eli Lilly.

Препарат Foundayo компании Eli Lilly, принимаемый один раз в день, стал вторым препаратом от ожирения в форме таблеток, получившим одобрение FDA. Он будет конкурировать с таблетированной версией препарата Wegovy от Novo Nordisk. Фотография: Ракель Наталиккио/Getty Images Комментарий…

Апр 2, 2026
dummy-img

Это четыре астронавта программы «Артемида II», возглавляющие историческое возвращение на Луну.

В состав экипажа миссии «Артемида II» вошли первая женщина, первый чернокожий человек и первый неамериканский астронавт, совершивший полет в лунную среду. Экипаж миссии «Артемида II» позирует для групповой фотографии во время своего визита на ракету SLS «Артемида…

Апр 1, 2026
Уличный термометр показывает температуру около 23 градусов Цельсия.

Ученый-климатолог рассказал, возможно ли на Земле повышение температуры до +60 градусов

Климатолог Алексей Елисеев оценил возможность экстремальной жары в Таиланде Метеорологический департамент Таиланда предупредил, что индекс жары в стране в начале апреля может подняться до 60 градусов Цельсия. Об этом со ссылкой на ведомство сообщило на днях издание…

Апр 1, 2026
Каменная античная скульптура мужчины, закрывающего глаза.

Удивительное открытие мужской точки G: самое подробное исследование пениса на сегодняшний день.

Было обнаружено, что в долгое время игнорируемой области полового члена сосредоточено наибольшее количество нервных окончаний и чувствительных структур, что позволяет предположить, что это «мужская точка G». Возможно, учебники анатомии нуждаются в пересмотре: главная эрогенная зона пениса находится…

Апр 1, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых