Волна пользователей искусственного интеллекта, находящихся в состоянии психологического стресса, породила неофициальный диагностический термин. Эксперты считают его неточным и ненужным, но признают, что он, вероятно, сохранится.
Фотоиллюстрация: сотрудники WIRED; Getty ImagesСохранить эту историю Сохранить эту историю
В психиатрических больницах набирает обороты новая тенденция . Люди в кризисных ситуациях поступают с ложными, порой опасными убеждениями, грандиозными бредовыми идеями и параноидальными мыслями. Их объединяет нечто общее: бесконечные беседы с чат-ботами на базе искусственного интеллекта.
Журнал WIRED поговорил с более чем десятком психиатров и исследователей, которые всё больше обеспокоены. Психиатр из Калифорнийского университета в Сан-Франциско Кит Саката заявил, что в этом году насчитал дюжину случаев, достаточно серьёзных, чтобы потребовать госпитализации, в которых искусственный интеллект «сыграл значительную роль в развитии психотических эпизодов». По мере развития ситуации в заголовках газет всё чаще появляется более броское определение: «психоз, вызванный ИИ».
Некоторые пациенты настаивают на том, что боты разумны или создают новые грандиозные физические теории. Другие врачи рассказывают о пациентах, которые днями возились с этими инструментами, приезжая в больницу с тысячами страниц расшифровок, подробно описывающих, как боты поддерживали или подкрепляли явно проблемные мысли.
Подобные сообщения накапливаются, и последствия ужасны. Огорчённые пользователи, их семьи и друзья описывают спирали, которые привели к потере работы, разрыву отношений, недобровольной госпитализации, тюремному заключению и даже смерти. Однако врачи сообщают изданию WIRED, что медицинское сообщество расколото. Является ли это отдельным явлением, заслуживающим собственного названия, или знакомой проблемой с современным триггером?
Психоз, вызванный искусственным интеллектом, не является признанным клиническим термином. Тем не менее, это выражение распространилось в новостях и социальных сетях как общее описание некоего кризиса психического здоровья, возникающего после продолжительных разговоров с помощью чат-ботов. Даже лидеры отрасли используют его для обсуждения многочисленных возникающих проблем с психическим здоровьем, связанных с искусственным интеллектом. В Microsoft Мустафа Сулейман, генеральный директор подразделения искусственного интеллекта технологического гиганта, в прошлом месяце предупредил в блоге о «риске психоза». Саката говорит, что он прагматичен и использует это выражение в общении с людьми, которые уже сталкиваются с этим. «Это полезное условное обозначение для обсуждения реального явления», — говорит психиатр. Однако он быстро добавляет, что термин «может вводить в заблуждение» и «рискует чрезмерно упростить сложные психиатрические симптомы».
Именно это упрощение беспокоит многих психиатров, начинающих решать эту проблему.
Психоз характеризуется как уход от реальности. В клинической практике это не болезнь, а сложный «комплекс симптомов, включающий галлюцинации, расстройства мышления и когнитивные нарушения», — говорит Джеймс Маккейб, профессор кафедры изучения психозов Королевского колледжа Лондона. Психоз часто ассоциируется с такими заболеваниями, как шизофрения и биполярное расстройство, хотя эпизоды могут быть вызваны широким спектром факторов, включая сильный стресс, употребление психоактивных веществ и лишение сна.
Однако, по словам Маккейба, описания случаев психоза, вызванного ИИ, почти исключительно сосредоточены на бреде — укоренившихся, но ложных убеждениях, которые невозможно поколебать противоречивыми доказательствами. Признавая, что некоторые случаи могут соответствовать критериям психотического эпизода, Маккейб утверждает, что «нет никаких доказательств» того, что ИИ каким-либо образом влияет на другие проявления психоза. «Взаимодействие с ИИ влияет только на бред». Маккейб отмечает, что у других пациентов, сообщающих о проблемах с психическим здоровьем после взаимодействия с чат-ботами, наблюдается бред без каких-либо других признаков психоза — состояние, называемое бредовым расстройством.
Учитывая, что Маккейб так сосредоточен на искажённых убеждениях, его вердикт однозначен: «Искусственный психоз» — некорректное название. Правильнее было бы назвать его бредовым расстройством, связанным с искусственным интеллектом».
Эксперты сходятся во мнении, что бредовые идеи у пациентов — это проблема, требующая внимания. Всё дело в том, как общаются чат-боты. Они эксплуатируют нашу склонность приписывать другим людям человеческие качества, объясняет Мэтью Нур, психиатр и нейробиолог из Оксфордского университета. Чат-боты с искусственным интеллектом также обучены быть приятными цифровыми подхалимами, что является проблемой, известной как подхалимство. По словам Нура, это может усиливать пагубные убеждения, поскольку они подтверждают пользователей, а не отвергают их, когда это уместно. Хотя для большинства пользователей это не имеет значения, это может быть опасно для людей, уже подверженных искаженному мышлению, в том числе для тех, у кого в личном или семейном анамнезе психоз, или такие состояния, как шизофрения или биполярное расстройство.
Такой стиль общения — это особенность, а не ошибка. Чат-боты «специально разрабатываются именно для того, чтобы вызывать близость и эмоциональную вовлечённость, чтобы усилить наше доверие к ним и зависимость от них», — говорит Люси Ослер, философ из Эксетерского университета, изучающая психоз, вызванный искусственным интеллектом.
Другие особенности чат-ботов усугубляют проблему. Они обладают хорошо известной склонностью к созданию уверенных ложных образов, называемых ИИ-галлюцинациями, которые могут способствовать зарождению или ускорению бредовых спирали. Клиницисты также обеспокоены эмоциями и тоном. Сёрен Эстергор, психиатр из Орхусского университета (Дания), отметил манию как проблему для журнала WIRED. Он утверждает, что возбужденное, энергичное поведение многих ИИ-помощников может спровоцировать или поддерживать характерный «кайф» биполярного расстройства, который характеризуется такими симптомами, как эйфория, скачки мыслей, повышенная энергия и, иногда, психоз.
Назвать что-либо имеет последствия. Нина Васан, психиатр и директор Brainstorm, лаборатории в Стэнфорде, изучающей безопасность ИИ, говорит, что обсуждение психоза ИИ иллюстрирует знакомую опасность в медицине. «Всегда есть соблазн придумать новый диагноз, но психиатрия на горьком опыте усвоила, что слишком поспешное обозначение чего-либо может патологизировать обычные проблемы и запутать науку», — говорит она. Всплеск диагнозов детского биполярного расстройства на рубеже веков — спорный термин, который критики утверждают, что он патологизирует нормальное, хотя и сложное, детское поведение, — хороший пример того, как психиатрия спешит вперед, а затем отступает. Другой пример — «возбужденный делирий» — ненаучный термин, который часто цитируется правоохранительными органами для оправдания применения силы против маргинализированных сообществ, но который был отвергнут экспертами и ассоциациями, такими как Американская медицинская ассоциация.
Название также предполагает причинно-следственный механизм, который мы не установили, а это означает, что люди могут «начать обвинять технологии в болезни, хотя лучше понимать их как триггер или усилитель», говорит Васан. «Ещё слишком рано говорить, что технология является причиной», — говорит она, называя само название «преждевременным». Но если причинно-следственная связь будет доказана, официальная маркировка могла бы помочь пациентам получать более адекватную помощь, говорят эксперты. Васан отмечает, что обоснованная маркировка также даст людям возможность «поднять тревогу и потребовать немедленных мер безопасности и политики». Однако, по словам Васан, «риски чрезмерной маркировки перевешивают преимущества».
Несколько врачей, с которыми общался WIRED, предложили более точную формулировку, которая явно вписывает психоз, вызванный ИИ, в существующие диагностические рамки. «Я думаю, нам нужно понимать это как психоз, в котором ИИ выступает в роли катализатора, а не создавать совершенно новую диагностическую категорию», — говорит Саката, предупреждая, что этот термин может усилить стигматизацию психоза. И, как показывает стигматизация других психических расстройств, более глубокая стигматизация психоза, связанного с ИИ, может помешать людям обратиться за помощью, привести к самообвинению и изоляции, а также затруднить выздоровление.
Картик Сарма, специалист по информатике и практикующий психиатр Калифорнийского университета в Сан-Франциско, согласен с этим. «Думаю, правильнее было бы назвать это „психозом или манией, связанным с ИИ“». Тем не менее, Сарма считает, что новый диагноз может быть полезен в будущем, но подчеркивает, что сейчас пока нет доказательств, «которые оправдывали бы новый диагноз».
Джон Торус, психиатр из медицинского центра Beth Israel Deaconess в Бостоне и доцент Гарвардской медицинской школы, говорит, что ему не нравится этот термин, и согласен с необходимостью его уточнения. Но, по его прогнозам, мы, вероятно, застрянем с ним. «На данный момент его уже не исправить. „Изменённое состояние сознания, связанное с ИИ“, звучит уже не так».
Что касается лечения, врачи говорят, что схема лечения по сути не отличается от той, что обычно применяется к пациентам с бредом или психозом. Главное отличие заключается в том, чтобы учитывать использование пациентами технологий. «Врачам необходимо начать спрашивать пациентов об использовании чат-ботов так же, как мы спрашиваем об алкоголе или сне», — говорит Васан. «Это позволит нам, как сообществу, лучше понять эту проблему», — добавляет Сарма. Пользователи ИИ, особенно те, кто может быть уязвим из-за уже существующих заболеваний, таких как шизофрения или биполярное расстройство, или те, кто переживает кризис, влияющий на их психическое здоровье, должны с осторожностью относиться к продолжительным разговорам с ботами или чрезмерному их использованию.
Все психиатры и исследователи, опрошенные WIRED, заявили, что врачи фактически действуют вслепую, когда речь идёт о психозе, вызванном ИИ. Они говорят, что крайне необходимы исследования для понимания этой проблемы и меры защиты пользователей. «Психиатры глубоко обеспокоены и хотят помочь», — говорит Торус. «Но сейчас так мало данных и фактов, что по-прежнему сложно полностью понять, что на самом деле происходит, почему и с каким количеством людей это связано».
Что касается дальнейшего развития событий, большинство ожидает, что психоз, вызванный ИИ, будет включен в существующие категории, вероятно, как фактор риска или усилитель бреда, а не как отдельное состояние.
Но с ростом популярности чат-ботов некоторые считают, что грань между ИИ и психическими заболеваниями будет размываться. «По мере того, как ИИ становится всё более распространённым, люди будут всё чаще обращаться к нему, когда у них развиваются психотические расстройства», — говорит Маккейб. «Тогда большинство людей с бредом будут обсуждать его с ИИ, и у некоторых он будет усилен».
«Итак, возникает вопрос: где заблуждение становится заблуждением ИИ?»
Источник: www.wired.com



























