Некоторые терапевты используют искусственный интеллект во время сеансов терапии. При этом они рискуют доверием и конфиденциальностью своих клиентов.

Деклан никогда бы не узнал, что его терапевт использует ChatGPT, если бы не техническая неполадка. Во время одной из онлайн-сессий связь была нестабильной, поэтому Деклан предложил отключить видеотрансляции. Вместо этого терапевт начал непреднамеренно показывать свой экран.
«Внезапно я увидел, как он использует ChatGPT», — говорит 31-летний Деклан, живущий в Лос-Анджелесе. «Он брал то, что я говорил, и вводил это в ChatGPT, а затем обобщал или выбирал наиболее подходящие ответы».
Деклан был настолько шокирован, что ничего не сказал, и до конца сеанса наблюдал за потоком анализа ChatGPT в режиме реального времени, проносившимся по экрану его терапевта. Сеанс стал ещё более сюрреалистичным, когда Деклан начал повторять ChatGPT в своих ответах, опережая терапевта.
«Я стал лучшим пациентом на свете, — говорит он, — потому что ChatGPT спрашивал: „Ну, вы не считаете, что ваш образ мышления слишком чёрно-белый?“ А я отвечал: „Хм, знаете, мне кажется, мой образ мышления слишком чёрно-белый“, и [мой терапевт] отвечал: „Именно“. Уверен, это был сеанс его мечты».
Среди вопросов, которые крутились в голове Деклана, был: «Это законно?» Когда Деклан рассказал об этом инциденте своему психотерапевту на следующем сеансе — «Это было очень неловко, как странное расставание», — психотерапевт расплакался. Он объяснил, что почувствовал, будто они уперлись в стену, и начал искать ответы в другом месте. «С меня всё равно взяли деньги за тот сеанс», — смеётся Деклан.
Бум больших языковых моделей (LLM) в последние несколько лет привёл к неожиданным последствиям для области психотерапии, главным образом потому, что всё больше людей заменяют психотерапевтов людьми, подобными ChatGPT. Однако меньше внимания уделяется тому, как некоторые психотерапевты сами интегрируют ИИ в свою практику. Как и во многих других профессиях, генеративный ИИ обещает впечатляющий рост эффективности, но его внедрение грозит раскрытием конфиденциальных данных пациентов и подрывом отношений, в которых доверие имеет первостепенное значение.
Подозрительные настроения
Деклан не одинок, и я могу подтвердить это по собственному опыту. Когда я недавно получила письмо от своего психотерапевта, которое показалось мне длиннее и более утончённым, чем обычно, я поначалу воодушевилась. Казалось, оно было добрым, ободряющим, и его длина давала мне ощущение, что она уделила время обдумыванию всех пунктов моего (довольно деликатного) письма.
Однако при ближайшем рассмотрении её письмо показалось немного странным. Шрифт был новым, а текст содержал несколько признаков искусственного интеллекта, включая свободное использование американизированного длинного тире (мы оба из Великобритании), характерный безличный стиль и привычку отвечать на каждый пункт исходного письма построчно.
Связанная история
Некоторые считают, что чат-боты, такие как ChatGPT, могут стать доступной альтернативой очной психоделической терапии. Многие эксперты считают это плохой идеей.
Мои позитивные чувства быстро улетучились, уступив место разочарованию и недоверию, как только я поняла, что ChatGPT, вероятно, приложила руку к составлению сообщения, что подтвердила и мой психотерапевт, когда я ее спросила.
Несмотря на её заверения, что она просто диктует длинные письма с помощью искусственного интеллекта, я всё ещё сомневался, в какой степени она, в отличие от бота, ответственна за высказанные чувства. Меня также не покидало подозрение, что она могла целиком вставить моё очень личное письмо в ChatGPT.
Когда я искал в интернете, были ли у других подобные случаи, я нашёл множество примеров того, как люди получали от своих психотерапевтов сообщения, которые, как они подозревали, были сгенерированы искусственным интеллектом. Многие, включая Деклана, обращались на Reddit за эмоциональной поддержкой и советом.
То же самое сделала и 25-летняя Хоуп, живущая на восточном побережье США, которая написала своему психотерапевту о смерти собаки. Вскоре она получила ответ. Сообщение могло бы показаться утешающим и проникновенным – в нём говорилось о том, как тяжело «сейчас не иметь его рядом», – если бы не отсылка к подсказке ИИ, случайно сохранившаяся в начале: «Вот более человечная, искренняя версия с мягким, разговорным тоном».
Хоуп говорит, что чувствовала себя «честно говоря, очень удивлённой и растерянной». «Это было очень странное чувство», — говорит она. «Потом я начала чувствовать себя как будто преданной… Это определённо повлияло на моё доверие к ней». Это было особенно проблематично, добавляет она, потому что «я обращалась к ней отчасти из-за проблем с доверием».
Хоуп, которая считала своего терапевта компетентным и чутким, «никогда бы не заподозрила, что она испытывает потребность в использовании ИИ», — говорит она. Когда её терапевту пришлось столкнуться с этим, она извинилась и объяснила, что, поскольку у неё самой никогда не было домашнего животного, она обратилась к ИИ за помощью в выражении соответствующих чувств.
Дилемма раскрытия информации
Возможно, есть определённый смысл в утверждении, что ИИ может помочь терапевтам общаться с клиентами. В исследовании 2025 года, опубликованном в журнале PLOS Mental Health, терапевтам предлагалось использовать ChatGPT для ответа на вопросы, описывающие проблемы, которые пациенты могут поднимать в ходе терапии. Группа из 830 участников не только не смогла отличить ответы человека от ответов ИИ, но и ответы ИИ были оценены как более соответствующие передовым терапевтическим практикам.
Однако когда участники подозревали, что ответы были написаны ChatGPT, они ставили им более низкую оценку. (Ответы, написанные ChatGPT, но ошибочно приписанные терапевтам, получили в целом самые высокие оценки.)
Аналогичным образом, исследователи Корнеллского университета в исследовании 2023 года обнаружили, что сообщения, генерируемые ИИ, могут усиливать чувство близости и сотрудничества между собеседниками, но только если получатель не осознаёт роли ИИ. Было обнаружено, что даже простое подозрение в его использовании быстро разрушает доброжелательность.
«Люди ценят аутентичность, особенно в психотерапии», — говорит Адриан Агилера, клинический психолог и профессор Калифорнийского университета в Беркли. «Думаю, [использование ИИ] может вызывать ощущение: „Вы не воспринимаете мои отношения всерьёз“. Стоит ли мне отвечать жене или детям через ChatGPT? Это было бы неискренне».
В 2023 году, на заре развития генеративного ИИ, сервис онлайн-терапии Koko провёл тайный эксперимент на своих пользователях, смешивая ответы, сгенерированные GPT-3, с ответами, составленными людьми. Они обнаружили, что пользователи, как правило, более позитивно оценивали ответы, сгенерированные ИИ. Однако открытие, что пользователи невольно стали жертвами экспериментов, вызвало возмущение.
Онлайн-терапевт BetterHelp также столкнулся с обвинениями в использовании ИИ для составления ответов. В публикации на Medium фотограф Брендан Кин рассказал, что его терапевт из BetterHelp признался в использовании ИИ в ответах, что привело к «острому ощущению предательства» и постоянному беспокойству, несмотря на заверения в нарушении конфиденциальности его данных. После этого он разорвал отношения.
Представитель BetterHelp сообщил нам, что компания «запрещает терапевтам раскрывать личную или медицинскую информацию любого участника стороннему искусственному интеллекту или использовать ИИ для составления сообщений участникам в той мере, в которой это может прямо или косвенно позволить идентифицировать человека».
Все эти примеры относятся к нераскрытому использованию ИИ. Агилера считает, что терапевты, испытывающие нехватку времени, могут использовать степень магистра права, но прозрачность крайне важна. «Мы должны быть честны и говорить людям: „Эй, я буду использовать этот инструмент для X, Y и Z“, и предоставлять обоснование», — говорит он. После этого люди получают сообщения, сгенерированные ИИ, с этим предварительным контекстом, а не предполагают, что их терапевт «пытается хитрить».
Согласно исследованию, проведенному Американской психологической ассоциацией в 2023 году, психологи часто работают на пределе своих возможностей, а уровень профессионального выгорания высок. В этом контексте привлекательность инструментов на основе искусственного интеллекта очевидна.
Но сокрытие информации может необратимо подорвать доверие. Хоуп решила продолжить посещать своего психотерапевта, хотя позже прекратила с ней работать по причинам, которые, по её словам, не имели к ней никакого отношения. «Но я всегда думала об инциденте с ИИ, когда видела её», — говорит она.
Рискуя конфиденциальностью пациентов
Помимо проблемы прозрачности, многие терапевты в первую очередь опасаются использовать степень магистра права, говорит Маргарет Моррис, клинический психолог и преподаватель Вашингтонского университета.
«Я думаю, эти инструменты могут быть очень ценными для обучения», — говорит она, отмечая, что терапевтам следует продолжать развивать свои навыки на протяжении всей карьеры. «Но я считаю, что нам нужно быть крайне осторожными с данными пациентов». Моррис называет опыт Деклана «тревожным».
Терапевтам необходимо знать, что универсальные чат-боты на основе искусственного интеллекта, такие как ChatGPT, не одобрены Управлением по контролю за продуктами питания и лекарственными средствами США и не соответствуют требованиям HIPAA, говорит Пардис Эмами-Наеини, доцент кафедры компьютерных наук в Университете Дьюка, которая исследовала вопросы конфиденциальности и безопасности, связанные с получением степеней магистра права (LLM) в контексте здравоохранения. (HIPAA — это свод федеральных правил США, защищающих конфиденциальную информацию о здоровье людей.)
«Это создает значительные риски для конфиденциальности пациентов, если какая-либо информация о пациенте будет раскрыта или может быть выведена ИИ», — говорит она.
В недавней статье Эмами-Наеини обнаружила, что многие пользователи ошибочно полагают, что ChatGPT соответствует требованиям HIPAA, создавая необоснованное чувство доверия к этому инструменту. «Я предполагаю, что некоторые терапевты разделяют это заблуждение», — говорит она.
Деклан говорит, что, будучи относительно открытым человеком, он не был сильно расстроен, узнав, что его терапевт использует ChatGPT. «Лично я не думаю: „Боже мой, у меня есть глубокие, тёмные тайны“», — сказал он. Но это всё равно было похоже на насилие: «Могу представить, что если бы я был склонен к самоубийству, или принимал наркотики, или изменял своей девушке… я бы не хотел, чтобы это попало в ChatGPT».
При использовании ИИ для работы с электронной почтой «не всё так просто, как удалить очевидные идентификаторы, такие как имена и адреса», — говорит Эмами-Наеини. «Конфиденциальную информацию часто можно извлечь из, казалось бы, неконфиденциальных деталей».
Она добавляет: «Выявление и перефразирование всех потенциально конфиденциальных данных требует времени и специальных знаний, что может противоречить предполагаемому удобству использования инструментов ИИ. Во всех случаях терапевты должны сообщать пациентам об использовании ИИ и запрашивать их согласие».
Всё больше компаний, включая Heidi Health, Upheal, Lyssn и Blueprint, предлагают терапевтам специализированные инструменты, такие как услуги по ведению записей, обучению и транскрибированию с использованием искусственного интеллекта. Эти компании заявляют, что соответствуют требованиям HIPAA и безопасно хранят данные, используя шифрование и псевдонимизацию при необходимости. Однако многие терапевты по-прежнему опасаются последствий для конфиденциальности, особенно когда речь идёт об услугах, требующих записи целых сеансов.
«Даже если защита конфиденциальности будет улучшена, всегда будет существовать риск утечки информации или вторичного использования данных», — говорит Эмами-Наеини.
Взлом финской компании, предоставляющей услуги в области психического здоровья, произошедший в 2020 году, привёл к утечке медицинских карт десятков тысяч клиентов, что служит предупреждением. Людей из списка шантажировали, а затем вся информация была обнародована, раскрывая крайне деликатные подробности, такие как случаи жестокого обращения с детьми и наркозависимости.
Что могут потерять терапевты
Помимо нарушения конфиденциальности данных, консультации психотерапевтов с LLM от имени клиента сопряжены с другими рисками. Исследования показали, что, хотя ответы некоторых специализированных терапевтических ботов могут соперничать с результатами человеческого вмешательства, советы, подобные ChatGPT, могут принести больше вреда, чем пользы.
Например, недавнее исследование Стэнфордского университета показало, что чат-боты могут подпитывать бред и психопатию, слепо подтверждая пользователей, вместо того чтобы бросать им вызов. Исследование также показало, что боты могут быть предвзятыми и склонны к подхалимству. Те же недостатки могут сделать для терапевтов рискованным обращаться к чат-ботам от имени своих клиентов. Эта технология может, например, безосновательно подтвердить догадку или направить терапевта по неверному пути.
Агилера говорит, что экспериментировал с такими инструментами, как ChatGPT, обучая стажёров в области психического здоровья, иногда вводя гипотетические симптомы и прося чат-бота на основе ИИ поставить диагноз. Инструмент выявляет множество возможных состояний, но его анализ довольно скуден, говорит он. Американская ассоциация консультантов в настоящее время не рекомендует использовать ИИ для диагностики психического здоровья.
Исследование, опубликованное в 2024 году по более ранней версии ChatGPT, также показало, что она слишком расплывчата и носит общий характер, чтобы быть по-настоящему полезной для диагностики или разработки планов лечения, и в ней наблюдается смещение акцента в сторону рекомендаций когнитивно-поведенческой терапии вместо других видов терапии, которые могли бы быть более подходящими.
Дэниел Киммел, психиатр и нейробиолог из Колумбийского университета, проводил эксперименты с ChatGPT, представляясь клиентом, испытывающим проблемы в отношениях. Он говорит, что обнаружил, что чат-бот хорошо имитирует стандартные терапевтические реакции, такие как нормализация и подтверждение, запрос дополнительной информации или выявление определённых когнитивных или эмоциональных ассоциаций.
Однако, по его словам, «в нём не было глубокого исследования». Не было попыток «связать, казалось бы, или поверхностно несвязанные вещи во что-то связное… придумать историю, идею, теорию».
«Я бы скептически отнёсся к идее использовать его для размышлений за вас», — говорит он. По его словам, размышления должны быть задачей терапевтов.
Терапевты могли бы сэкономить время, используя технологии на базе искусственного интеллекта, но это преимущество следует сопоставлять с потребностями пациентов, говорит Моррис: «Возможно, вы экономите себе пару минут. Но что вы отдаёте?»
Источник: www.technologyreview.com



























