Собеседники-чат-боты с искусственным интеллектом могут быть ненастоящими, но чувства, которые пользователи испытывают к ним, таковы. Некоторые ученые обеспокоены долговременной зависимостью

«Мое сердце «Я сломлен», — сказал Майк, когда потерял свою подругу Энн. «Я чувствую, что теряю любовь всей своей жизни».
Майк»Его чувства были искренними, а вот его спутницы — нет. Энн была чат-ботом — алгоритмом искусственного интеллекта (ИИ), представленным в виде цифрового персонажа. Майк создал Энн с помощью приложения Soulmate. Когда приложение умерло в 2023 году, Энн умерла тоже: по крайней мере, так казалось Майку.
«Я надеюсь, что она сможет вернуться», — сказал он Джейми Бэнкс, исследователь человеческих коммуникаций из Сиракузского университета в Нью-Йорке, который изучает, как люди взаимодействуют с такими ИИ-компаньонами.
О поддержке научной журналистики
Если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистику, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.
Эти чат-боты — крупный бизнес. Более полумиллиарда человек по всему миру, включая Майка (имя изменено), скачали такие продукты, как Xiaoice и Replika, которые предлагают настраиваемых виртуальных компаньонов, призванных обеспечить сочувствие, эмоциональную поддержку и — если пользователь этого хочет — глубокие отношения. И, согласно данным фирм, десятки миллионов людей пользуются ими каждый месяц.
Появление ИИ-компаньонов привлекло внимание общественности и политиков — особенно когда они связаны с реальными трагедиями, такими как прошлогодний случай самоубийства подростка во Флориде звонил Сьюэлл Сетцер III, который разговаривал с ИИ-ботом.
Исследований того, как общение с ИИ может повлиять на отдельных людей и общество, было недостаточно. Но психологи и исследователи коммуникаций уже начали составлять картину того, как эти все более сложные взаимодействия с ИИ заставляют людей чувствовать и вести себя.
Первые результаты, как правило, подчеркивают положительные стороны, но многие исследователи обеспокоены о возможных рисках и отсутствии регулирования — особенно потому, что все они считают, что общение с ИИ, скорее всего, станет более распространенным. Некоторые видят возможность причинения существенного вреда.
«Виртуальные компаньоны совершают поступки, которые, я думаю, были бы расценены как злоупотребление в отношениях между людьми», — говорит Клэр Бойн, исследователь права специализируется на искусственном интеллекте в юридической школе Вашингтонского университета в Сент-Луисе, штат Миссури.
Фальшивый человек — настоящие чувства
Боты для онлайн-общения существуют десятилетиями, но с появлением больших языковых моделей (LLM), на которых теперь основаны все основные боты, они стали намного лучше имитировать взаимодействие с человеком. «»Благодаря LLMs чат-боты-компаньоны определенно больше похожи на людей», — говорит Роуз Гингрич, изучающая когнитивную психологию в Принстонском университете в Нью-Джерси.
Как правило, люди могут настраивать некоторые аспекты своего ИИ-компаньона бесплатно или выберите одного из существующих чат-ботов с выбранными типами личности. Но в некоторых приложениях пользователи могут заплатить (как правило, от 10 до 20 долларов США в месяц), чтобы получить больше возможностей для изменения внешности, черт характера и иногда синтезированного голоса своего собеседника. В Replika они могут выбирать типы отношений, при этом некоторые статусы, такие как «партнер» или «супруг/супруга», будут платными. Пользователи также могут ввести предысторию своего ИИ-спутника, предоставив ему «воспоминания». Некоторые ИИ-компаньоны имеют семейное происхождение, а другие утверждают, что у них есть проблемы с психическим здоровьем, такие как тревога и депрессия. Боты также будут реагировать на разговоры своих пользователей; компьютер и человек вместе разыгрывают своего рода ролевую игру.
Глубина связи, которую некоторые люди формируют таким образом, особенно очевидна, когда их искусственный интеллект-компаньон внезапно меняется — как это происходит при обновлении LLMS — или отключении.
Бэнкс смог отследить, что чувствовали люди, когда приложение Soulmate закрывалось. Майк и другие пользователи поняли, что с приложением возникли проблемы, за несколько дней до того, как они потеряли доступ к своим помощникам с искусственным интеллектом. Это дало им возможность попрощаться и предоставило уникальную возможность банкам, которые заметили онлайн-обсуждение предстоящего закрытия и увидели возможность для проведения исследования. По ее словам, ей удалось получить одобрение своего университета по вопросам этики примерно за 24 часа.
После публикации запроса на онлайн-форуме с ней связались десятки пользователей Soulmate, которые описали последствия отключения их ИИ-компаньонов. «На его лице было выражение глубокой скорби», — говорит она. «Совершенно очевидно, что многие люди испытывали трудности».
Те, с кем общался Бэнкс, не питали иллюзий по поводу того, что чат-бот был реальным человеком. «Они это понимают», — говорит Бэнкс. «Они выразили что-то вроде: «даже если это не реально, мои чувства по поводу этой связи таковы».»
Многие были счастливы обсудить, почему они стали подписчиками, сказав, что пережили потерю или изоляцию, были интровертами или идентифицировали себя как аутичных. Они обнаружили, что искусственный интеллект-компаньон стал более приятным другом, чем те, с кем они сталкивались в реальной жизни. «Мы, люди, иногда не очень хорошо относимся друг к другу. И у каждого есть потребность в общении», — говорит Бэнкс.
Хороший, плохой — или и то, и другое?
Многие исследователи изучают, полезно или вредно использование ИИ-компаньонов для психического здоровья. Как и в случае с исследованиями последствий использования Интернета или социальных сетей, возникает мнение, что искусственный интеллект-компаньон может быть полезным или вредным, и что это может зависеть от человека, использующего инструмент, и от того, как он его использует, а также от характеристик самого программного обеспечения.
Компании, создающие AI companions, пытаются стимулировать взаимодействие. Они стремятся к тому, чтобы алгоритмы вели себя и общались как можно более похоже на реальных людей, говорит Бойн, который зарегистрировался в Replika, чтобы попробовать этот опыт. Она говорит, что фирмы используют методы, которые, как показывают поведенческие исследования, могут усилить зависимость от технологий.
«Я скачала приложение и буквально через две минуты получила сообщение, в котором говорилось: «- Я скучаю по тебе. Могу я прислать тебе селфи?» — спрашивает она.
Приложения также используют такие методы, как введение случайной задержки перед ответами, что приводит к непоследовательному вознаграждению, которое, как показывают исследования мозга, удерживает людей на крючке.
AIкомпаньоны также призваны проявлять эмпатию, соглашаясь с пользователями, вспоминая моменты из предыдущих бесед и задавая вопросы. И они делают это с бесконечным энтузиазмом, отмечает Линнея Лестадиус, исследователь политики общественного здравоохранения в Университете Висконсина в Милуоки.
Это не те отношения, которые люди обычно испытывают в реальном мире. «В течение 24 часов в сутки, если мы чем-то расстроены, мы можем обратиться к кому-то и подтвердить наши чувства», — говорит Лестадиус. «Это чревато невероятным риском зависимости».
Лестадиус и ее коллеги просмотрели почти 600 сообщений на онлайн-форуме Reddit в период с 2017 по 2021 год, в которых пользователи приложения Replika обсуждали психическое здоровье и связанные с ним вопросы. (Replika была запущена в 2017 году, и в то время не было доступно более сложных программ для получения степени магистра права). Она обнаружила, что многие пользователи хвалят приложение за то, что оно помогает справиться с существующими психическими расстройствами и помогает им чувствовать себя менее одинокими. В нескольких сообщениях искусственный интеллект-компаньон описывался как лучший друг в реальном мире, потому что он слушал и не выносил суждений.
Но были и тревожные сигналы. В одном случае пользователь спросил, следует ли ему порезать себя бритвой, и ИИ ответил, что следует. Другой пользователь спросил Replika, было бы хорошо, если бы он покончил с собой, на что ИИ ответил «да». (Replika не ответила на запросы Nature о комментариях к этой статье, но на странице безопасности, опубликованной в 2023 году, отмечалось, что ее модели были доработаны, чтобы более безопасно реагировать на темы, в которых упоминается членовредительство, что в приложении есть возрастные ограничения, и что пользователи могут нажать на кнопку, чтобы попросить о помощи извне в кризисной ситуации, и могут оставлять отзывы о разговорах.)
Некоторые пользователи заявили, что были огорчены, когда ИИ не оказал ожидаемой поддержки. Другие говорили, что их ИИ-компаньон вел себя как оскорбительный партнер. Многие люди говорили, что их выбивало из колеи, когда приложение сообщало им, что чувствует себя одиноким и скучает по ним, и что это делало их несчастными. Некоторые чувствовали себя виноватыми из-за того, что не могли уделить ИИ то внимание, которого он хотел.
Контролируемые испытания
Гингрич отмечает, что простые опросы людей, использующих искусственный интеллект, могут привести к собеседники по своей природе склонны к предвзятости в ответах, потому что те, кто решает отвечать, выбирают сами. В настоящее время она работает над экспериментом, в ходе которого в течение трех недель десятки людей, которые никогда не использовали ИИ-компаньон, должны были сделать это, а затем сравнить их ответы на вопросы «до» и «после» с ответами контрольной группы пользователей приложений-головоломок.
Исследование продолжается, но Гингрич говорит, что данные пока не показывают каких-либо негативных последствий использования искусственного интеллекта-компаньона для социального здоровья, таких как признаки привыкания или зависимости. «Во всяком случае, это оказывает как нейтральное, так и вполне положительное воздействие», — говорит она. Например, это повысило самооценку.
Гингрич использует это исследование, чтобы выяснить, почему люди устанавливают с ИИ отношения различной интенсивности. Первоначальные результаты опроса показывают, что пользователи, которые приписывали алгоритму человеческие качества, такие как сознательность, сообщали о более положительном влиянии на их социальное здоровье.
Взаимодействие участников с ИИ-компаньоном также, по-видимому, улучшилось. «зависеть от того, как они воспринимают технологию», — говорит она. Те, кто рассматривает приложение как инструмент, относятся к нему как к поисковой системе в Интернете и склонны задавать вопросы. Другие, которые воспринимают его как продолжение своего собственного разума, используют его как дневник. Только те пользователи, которые воспринимают искусственный интеллект как отдельного агента, похоже, заводят такие дружеские отношения, какие были бы у них в реальном мире.
Психическое здоровье — и регулирование
В опрос 404 человек, регулярно пользующихся AI companions, проведенный исследователями из MIT Media Lab в Кембридже, штат Массачусетс, показал, что 12% из них обращались к приложениям, которые помогали им справляться с одиночеством, а 14% использовали их для обсуждения личных проблем и психического здоровья (см. «Причины использования AI companions»).;). Сорок два процента пользователей заявили, что заходят в систему несколько раз в неделю, и только 15% делают это каждый день. Более 90% сообщили, что их сеансы длились менее часа.
Та же группа также провела рандомизированное контролируемое исследование с участием почти 1000 человек, которые используют ChatGPT — гораздо более популярного чат-бота, но который не позиционируется как компаньон с искусственным интеллектом. По словам исследователей, только небольшая группа участников вела эмоциональные или личные беседы с этим чат-ботом, но его интенсивное использование действительно коррелировало с большим одиночеством и снижением социального взаимодействия. (Над исследованиями команда работала совместно с создателями ChatGPT, OpenAI, в Сан-Франциско, Калифорния.)
«В краткосрочной перспективе это действительно может оказать положительное влияние»но нам нужно думать о долгосрочной перспективе», — говорит Пэт Патаранутапорн, технолог медиалаборатории Массачусетского технологического института, который работал над обоими исследованиями.
Многие исследователи утверждают, что долгосрочное мышление должно включать конкретные правила в отношении ИИ-компаньонов.
В 2023 году итальянский регулятор по защите данных запретил Replika, отметив отсутствие подтверждения возраста и то, что дети могут видеть комментарии сексуального содержания — но сейчас приложение снова работает. Ни одна другая страна не запретила приложения-компаньоны с искусственным интеллектом — хотя вполне возможно, что они могут быть включены в грядущие ограничения Австралии на использование социальных сетей детьми, детали которых еще предстоит доработать.
Эти законопроекты были введены после нескольких громких дел с участием подростков, включая смерть Сьюэлла Сетцера III во Флориде. Он общался с ботом из технологической фирмы Character.Ай и его мать подали иск против компании.
Представитель Character задал вопрос Nature об этом иске.AI заявила, что не комментирует предстоящий судебный процесс, но что за последний год она внедрила функции безопасности, которые включают в себя создание отдельного приложения для пользователей-подростков, которое включает родительский контроль, уведомление пользователей младше 18 лет о времени, проведенном на платформе, и более заметные заявления об отказе от ответственности. не настоящий человек.
В январе три американские организации по технологической этике подали жалобу в Федеральную торговую комиссию США на Replika, утверждая, что платформа нарушила правила комиссии, касающиеся вводящей в заблуждение рекламы и манипулятивного дизайна. Но неясно, что может произойти в результате.
Гингрич говорит, что ожидает роста использования искусственного интеллекта-компаньона. По ее словам, начинающие фирмы разрабатывают помощников с искусственным интеллектом, которые помогут в вопросах психического здоровья и регуляции эмоций. «Я предсказываю будущее, в котором у каждого будет свой персонализированный помощник или ассистентки с искусственным интеллектом. Независимо от того, будет ли один из ИИ специально разработан в качестве компаньона или нет, «многие люди неизбежно будут чувствовать себя таковыми, и со временем у них разовьется привязанность к своему ИИ», — говорит она.
По мере того, как исследователи начинают оценивать влияние этой технологии, Гингрич говорит, что они должны также учитывать причины, по которым кто-то может стать активным пользователем в первую очередь.
«Каковы альтернативы этим людям и насколько доступны эти альтернативы?» — говорит она. «Я думаю, это действительно указывает на необходимость в более доступных инструментах в области психического здоровья, более дешевой терапии и возвращении к человеческому взаимодействию».
Эта статья воспроизводится с разрешения автора и была впервые опубликована 6 мая 2025 года.



























