Image

LLM и психическое здоровье

Полезна или вредна степень магистра права для нашего психического здоровья? Всё гораздо сложнее.

Делиться

Коричневый диван, какой можно увидеть в кабинете психиатра.

Читатели, внимательно следящие за освещением в СМИ вопросов ИИ, особенно программ магистратуры (LLM), вероятно, слышали о нескольких случаях и тенденциях, связанных с влиянием на психическое здоровье людей использования или чрезмерного использования таких технологий. Более того, в области психического и поведенческого здоровья активно изучают, каким образом программы магистратуры (LLM) могут быть как полезны, так и опасны для психического здоровья населения в целом, а также в сфере диагностики и лечения.

Это сложная тема, и по ней проведено множество исследований, поэтому сегодня я сделаю небольшой обзор некоторых основных вопросов и укажу на другие статьи, которые помогут глубже разобраться в этих темах. (Я постарался по возможности давать ссылки на статьи, которые находятся в свободном доступе и доступны широкой публике.)

В этой области есть много интересного о других областях ИИ, помимо магистерской программы LLM, и тем, кто хочет получить более широкую информацию, я рекомендую обзор литературы NIH, подготовленный Крузом-Гонсалесом и соавторами.

Понимание LLM

Прежде чем мы начнем, я бы хотел немного рассказать о том, как работают чат-боты LLM и что они делают, чтобы придать обсуждению более конкретный контекст.

Один чат-бот, работающий по принципу «большой языковой модели», получает текстовую подсказку от пользователя и выдаёт ответ, основанный на вероятности релевантности слова и контексте. Он изучает взаимосвязи между словами и фразами (а также грамматикой, пунктуацией и т. д.) в языке в процессе обучения, в ходе которого он сталкивается с огромными объёмами человеческой речи, включая письменные тексты и транскрипты устной речи. На основе текста подсказки, который он может усвоить (который может быть довольно длинным в современных программах LLM), он вычисляет статистическую вероятность того, что слово или фраза являются наилучшим результатом, полученным в ходе обучения. Обычно он выбирает наиболее статистически вероятный следующий текст, но иногда выбирает менее вероятное слово или фразу, чтобы снизить роботизированность языка.

Кроме того, современные чат-боты LLM, такие как некоторые формы ChatGPT, имеют доступ к другим моделям и компонентам. Это означает, что при получении запроса компонент оркестровки может определить, какие модели необходимы для получения ответа, и они могут работать согласованно. Например, ChatGPT иногда может выполнять поиск информации в Интернете в режиме реального времени, если запрос кажется обоснованным. Некоторые модели также выполняют многомодальную работу, поэтому запрос может привести к тому, что оркестратор вызовет модель генерации изображений, а также модель генерации текста, возвращая сгенерированное изображение и текстовое сопровождение. Это также может работать с моделями генерации аудио или видео. По сути, запрос запускает логику для определения того, какие из доступных компонентов релевантны вопросу, затем вызывает их и объединяет их ответы для создания единого ответа.

Однако важно помнить, что в основе всех моделей генерации языка лежит вероятностный метод выбора слов для ответов, основанный на закономерностях и уроках, извлеченных из обучающего текста, с которым они сталкивались. Они не проверяют точность или истинность высказываний, а их барьеры для предотвращения опасных высказываний или взаимодействий ограничены, что очень важно понимать.

К тому же, чтобы LLM был максимально полезен в сфере психического здоровья, он должен быть тонко настроен и не должен быть просто универсальным LLM, как ChatGPT или Claude. Таким образом, вышеупомянутая технология является нашей отправной точкой, но необходимо приложить гораздо больше усилий для того, чтобы LLM имел доступ к специальной литературе и данным, связанным с психическим здоровьем, прежде чем его можно будет использовать в диагностической или терапевтической работе. (Лоуренс) В некоторых упомянутых ниже работах изучаются LLM общего назначения, в то время как в других — специально настроенные, хотя в коммерческих LLM характеристики этой настройки непрозрачны и редко доступны исследователям. Я думаю, что реалистично рассматривать оба типа моделей, поскольку версии общего назначения — это то, как широкая публика получает доступ к LLM большую часть времени. Более узкоспециализированные LLM, подготовленные для психиатрических приложений, медленно разрабатываются, но создание высококачественного и безопасного инструмента такого рода требует много времени, данных и труда.

Чтобы степень магистра права (LLM) была максимально полезной в сфере психического здоровья, ее необходимо тщательно проработать, и она не может быть просто универсальным LLM, как ChatGPT или Claude.

Используя эту концепцию, давайте немного поговорим о некоторых способах, с помощью которых магистры права могут принять участие в сфере психического здоровья.

Симптомы и начало

Психиатрические проблемы не являются чем-то редким или необычным. Во всем мире половина людей в течение жизни сталкивается с проблемами психического здоровья, и в любой момент времени каждый восьмой человек действительно сталкивается с такими симптомами. (Лоуренс) Однако большинство данных о частоте и распространенности психических заболеваний появились еще до того, как магистратура права стала широко распространенной технологией.

В последнее время в СМИ появились сообщения о том, как использование этой технологии может повлиять на психическое здоровье некоторых людей. В некоторых экстремальных случаях у людей, похоже, развиваются бредовые или психотические кризисы, вызванные темой их разговоров с чат-ботами магистра права. К ним относятся такие вещи, как опасные теории заговора, вера в себя или чат-бота как в Бога и паранойя по отношению к окружающим. Также имеются свидетельства усугубления депрессии и тревожности при использовании определённых видов ИИ, особенно при снижении социальной активности и взаимодействия с людьми, когда вместо этого используется знание магистра права. (Обрадович) Это может даже перерасти в насилие, включая как минимум один случай самоубийства подростка, вызванного токсичными подстрекательствами со стороны чат-бота.

Одной из наиболее опасных частей этого процесса является динамическое взаимодействие между человеком с симптомами и чат-ботом. Это может затруднить помощь близкого человека или специалиста, поскольку он воспринимает это как постоянное внешнее подкрепление своих нездоровых убеждений и симптомов. Получение степени магистра права может отбить у человека желание обратиться за помощью или лечением к надежным источникам.

Однако важно не преувеличивать риск подобного явления. Конечно, такое случается, и к этому следует относиться серьёзно, но это не происходит с подавляющим большинством пользователей. Многие исследования психических заболеваний предполагают наличие сочетания биохимической и/или генетической предрасположенности к определённым расстройствам или симптомам, которые могут усугубляться внешними стимулами. Если, как представляется, использование LLM может быть одним из таких внешних стимулов, это заслуживает исследования и внимания. Даже если большинство людей не будут испытывать ничего подобного серьёзным проблемам с психическим здоровьем, которые мы наблюдаем по некоторым данным, некоторые будут, поэтому необходимо признать эту опасность.

Уход за психическим здоровьем

Что касается диагностики и лечения психических заболеваний, существует множество исследований, изучающих ситуацию в этой области. Важно признать, что, как и в других областях здравоохранения, применение магистерских программ и ИИ в этой области сопряжено с высоким риском, и нам необходимо проявлять особую осторожность, чтобы минимизировать потенциальный вред, прежде чем что-либо внедрять.

Тем не менее, обсуждение этого вопроса имеет определённую актуальность, поскольку недоступность психиатрической помощи — это серьёзная эпидемия, особенно в Соединённых Штатах. Это обусловлено главным образом нехваткой квалифицированных специалистов и высокой стоимостью качественной помощи, которая зачастую не покрывается в достаточной степени имеющимися страховыми программами. Поэтому нам необходимо определить, могут ли технологии на основе искусственного интеллекта помочь нам смягчить эту проблему доступности, одновременно минимизируя риски и опасности для пациентов.

За кулисами

Начнём с того, что LLM может оказывать поддержку врачам-психиатрам, не взаимодействуя напрямую с пациентом. Многие врачи всех специальностей уже используют LLM для анализа медицинских записей, получения информации, напоминающей «второе мнение», и так далее. Психическое здоровье – задача немного более сложная, поскольку диагностика более тонкая и субъективная, и редко существует единый тест или диагностический метод, который может подтвердить или опровергнуть гипотезу. Если LLM тщательно настроен, он может оказать полезную помощь врачу в диагностике заболевания или составлении плана лечения. Однако известно, что LLM допускают ошибки и предоставляют неверную информацию, даже при хорошей подготовке, поэтому это не может считаться полной заменой профессионального обучения, опыта и навыков. (Обрадович)

Существуют также серьёзные опасения по поводу конфиденциальности данных и конфиденциальности информации о пациентах при использовании LLM, поскольку большинство широко распространённых программ принадлежат частным коммерческим предприятиям и управляются ими, а многие из них имеют крайне непрозрачную политику обработки и передачи пользовательских данных. Предотвращение попадания данных, предоставляемых LLM, в чужие руки или их использования в несанкционированных или неэтичных целях является серьёзной проблемой для всех в сфере здравоохранения, кто может захотеть использовать эту технологию, и на данный момент эта проблема не решена. Это относится ко всем вариантам применения, которые я обсуждаю ниже, а также к простому взаимодействию врача и LLM.

Существуют также реальные опасения относительно конфиденциальности данных и конфиденциальности информации о пациентах при использовании LLM, поскольку большинство широко используемых из них принадлежат частным коммерческим предприятиям и управляются ими, и многие из них имеют очень непрозрачную политику в отношении обработки и передачи пользовательских данных.

Взаимодействие с пациентами

Однако, если мы хотим добиться прямого взаимодействия между пациентом и магистрами права, следует действовать осторожно. Эффективность психиатрической помощи в огромной степени зависит от доверия и построения отношений, и не все пациенты готовы или способны доверять технологиям, часто по вполне понятным причинам. Значительная общественная реакция на использование степеней магистра права во многих сферах уже очевидна, и можно ожидать, что некоторые люди не захотят обращаться к LLM в качестве замены или дополнения к терапии с пациентом.

Даже если пациент соглашается на использование LLM, ему необходимо иметь соответствующую информацию о том, что делает LLM и как он работает, чтобы обрабатывать и понимать получаемую информацию. Мы всё ещё изучаем, как разные люди относятся к общению с LLM — не только к тому, готовы ли они к этому, но и к тому, способны ли они завоевать доверие (и является ли такое доверие хорошей идеей), насколько они будут честны и будут ли они относиться к результатам работы чат-бота с обоснованным скепсисом. Излишняя доверчивость пациентов к подобной технологии может быть крайне опасной, особенно учитывая вариабельность результатов и качества LLM.

Однако для тех, кто считает степень магистра права подходящим вариантом, есть несколько способов ее интеграции в клинический опыт.

Диагноз

Может ли магистр права ставить диагнозы с таким же или даже более высоким качеством, чем врачи-терапевты? Некоторые исследования, похоже, демонстрируют, что магистры права могут сравниться с врачами-клиницистами в выполнении очень специфических, контролируемых диагностических задач, хотя данных мало, а исследований не так много. Когда взаимодействие становится более открытым и возникает больше неопределенности, магистры права, по-видимому, испытывают трудности.

Отчасти это объясняется просто возможностями магистра права (LLM). Когда практикующий специалист ставит диагноз, необходимо учитывать огромное количество нюансов. Хотя язык даёт нам глубокое понимание мыслительных процессов и состояния человека, для точной и эффективной диагностики необходимо собрать больше информации, например, тон голоса, язык тела и самообслуживание. Мультимодальная модель могла бы включать эти данные, но, к сожалению, многие исследования ограничивают свой анализ только вербальными или письменными диагностическими инструментами и упускают из виду эту деталь. Я бы рассматривал это как реальную возможность для будущего развития машинного обучения, если будут получены необходимые данные. Многие стандартизированные диагностические опросники, используемые в обычной практике психического здоровья, фактически содержат множество компонентов субъективной оценки врачом эмоций, тона и внешнего вида пациента, поэтому исключение этих характеристик ограничит эффективность диагностики.

Хотя язык дает нам важное представление о мыслительных процессах и состоянии человека, для точной и эффективной диагностики необходимо собрать больше информации, например, тон голоса, язык тела и уход за собой.

Предвзятость также является важным фактором, который следует учитывать. Магистры права (LLM) обучаются на широком спектре контента, полученного от различных авторов и из самых разных источников. Этот контент будет содержать, явно или неявно, примеры предвзятости и дискриминации, присутствующие в нашем обществе. В результате LLM также иногда выдают предвзятые результаты. Врачи обязаны минимизировать предвзятость в своем взаимодействии с пациентами, чтобы оказывать им максимальную помощь и соблюдать этические стандарты своей профессии. Если вы используете диагностический инструмент, который выдает информацию с необоснованными предубеждениями, такие результаты необходимо отфильтровать и устранить.

Однако есть все основания полагать, что расширение возможностей и дальнейшие исследования могут сделать степени магистра права и мультимодальные модели более полезными в диагностике. В частности, практикующий врач может счесть полезным привлечь степень магистра права при дифференциальной диагностике, стремясь учесть все возможные варианты в конкретной ситуации. Однако это не может исчерпывать весь процесс, и основной опорой должен быть клинический опыт.

Уход

Как я уже упоминал, существует важное различие между степенью магистра права (LLM), являющейся одним из инструментов терапевтического плана, разработанного квалифицированным специалистом, и степенью магистра права (LLM), используемой в качестве замены профессионального опыта. Это справедливо как для лечения, так и для диагностики. Исходя из качества и возможностей LLM, а также исследований, с которыми я ознакомился в ходе написания этой статьи, я не могу рекомендовать никому обращаться к LLM для терапии без тщательного наблюдения профессионального терапевта — эта технология просто не готова к такому использованию по нескольким причинам. Американская психиатрическая ассоциация согласна с этим, и её рекомендации по приемлемому использованию ИИ на практике, в частности, не включают какое-либо независимое применение LLM.

Одна статья Мура и соавторов действительно выделяется, поскольку они протестировали как универсальные программы LLM, так и инструменты LLM, предлагаемые как терапевтические, консультационные/оздоровительные услуги, и обнаружили ряд тревожных результатов. LLM как замена терапевтам плохо работают во многих ситуациях, что может создавать реальные риски для пациентов. В частности, тяжёлые проблемы с психическим здоровьем и кризисы, по-видимому, являются теми случаями, когда LLM наименее эффективен, возможно, потому что это менее распространённые ситуации, и, следовательно, данные обучения будут меньше подвержены влиянию этих обстоятельств. В оригинальном исследовании той же статьи было обнаружено, что многие из наиболее универсальных современных программ LLM порой дают ужасающе неадекватные ответы на подсказки, которые указывают на явные проблемы с психическим здоровьем или чрезвычайные ситуации, а коммерчески доступные программы LLM, разработанные и предлагаемые для психического здоровья, были ещё хуже. Неясно, были ли эти коммерческие чат-боты действительно созданы с какой-либо тщательностью или добросовестностью в отношении применения в области психического здоровья, но, учитывая отсутствие регулирования таких инструментов, они всё равно были доступны для использования. Тем не менее, магистры права не несут ответственности за свои заявления и не могут соблюдать этические стандарты так, как это делают люди, предоставляющие услуги. Это должно заставить нас задуматься о том, что любые технологии искусственного интеллекта должны быть предоставлены сами себе при работе с людьми, остро нуждающимися в помощи и поддержке.

Магистры права не могут нести ответственность за свои заявления и не могут соблюдать этические стандарты так, как это делают поставщики услуг.

Вероятно, существуют особые случаи, когда LLM может помочь людям, например, напомнить о необходимости заботиться о себе или принимать лекарства, или поощрить позитивный выбор, но терапия на самом деле очень сложная практика, которая может принимать различные формы. Различные диагнозы и симптомы требуют разных подходов к лечению, и в настоящее время недостаточно данных о том, что LLM способны оказать помощь, особенно в тяжёлых и кризисных случаях. LLM известны своей склонностью к подхалимству, стремлению согласиться с пользователем или угодить ему превыше всего. Когда пациент использует чат-бот LLM для получения помощи в области психического здоровья, чат-бот должен уметь не соглашаться с нездоровыми моделями мышления и идеями, включая бредовые идеи, и оспаривать их. Это может противоречить тому, как LLM обучаются с использованием обратной связи от человека.

Врачи

Что следует делать поставщикам услуг в области психического здоровья, учитывая эту информацию? Большинство профессиональных организаций имеют рекомендации о том, как использовать ИИ, и, как правило, рекомендуют консервативный подход, ограничивая использование магистров права в работе с пациентами, но поощряя исследования в области административных задач или координации данных. На мой взгляд, это разумный подход на данном этапе развития технологии и, что, возможно, ещё важнее, на данном этапе нашего понимания и грамотности в области ИИ.

Если технология LLM является частью плана лечения, врач должен быть готов использовать её эффективно и осторожно, чтобы предотвратить передачу пациенту деструктивной информации. Психиатры, желающие использовать её, должны будут развить навыки применения LLM и понять технологию для достижения оптимальных результатов и соблюдения своих этических обязательств. Врач должен быть готов отслеживать реакцию LLM на пациента, что позволит гарантировать надлежащую практику.

Если технология LLM является частью плана лечения, то это требует от врача умения использовать ее эффективно и осторожно, чтобы не допустить передачи пациенту опасной информации.

Ещё один момент, о котором следует помнить, — это проблема устаревания информации. Магистры права имеют доступ к качественной информации в своих учебных корпусах, но по мере обучения часть имеющейся у них информации может устареть или стать противопоказанной. Практикующим специалистам следует знать, что это может произойти, и следить за тем, чтобы не допустить передачи пациентам ложной информации или устаревших идей.

Как я уже отмечал ранее, при использовании LLM в любой клинической практике необходимо учитывать серьёзные требования к конфиденциальности данных, HIPAA и конфиденциальности пациентов. Если вы не уверены в том, что можете оценить, надёжно ли защищены данные, которые вы предоставляете LLM, или не знаете, как они могут быть использованы, это тревожный сигнал.

Регулирование

Наконец, я хочу немного поговорить о регулировании LLM в области психического здоровья. Инструменты искусственного интеллекта, разработанные для медицинской сферы, могут быть сертифицированы по HIPAA, что даёт вам уверенность в их безопасности данных при правильном использовании. Однако в Соединённых Штатах регулирование LLM, продаваемых как «терапия», минимально, если вообще существует, и это может быть очень опасно. Существуют приложения, предлагающие «терапию» от LLM без какого-либо человеческого контроля, и, как отмечается в исследовании Мура, многие из них даже хуже, чем LLM общего назначения, в плане соответствия стандартам оказания медицинской помощи. Важно быть особенно осторожным с исследованиями в этой области, которым мы доверяем, поскольку многие коммерческие поставщики таких чат-ботов публикуют информацию в поддержку своих продуктов, которая может быть как беспристрастной, так и необъективной.

Возможно, штаты начнут разрабатывать нормативные акты, но, скорее всего, они будут постепенными, подобно регулированию конфиденциальности данных в нашей стране. Поскольку ответственность за эти инструменты минимальна, и, как я уже упоминал в начале статьи, некоторые люди могут даже в лучшем случае подвергаться риску нездорового взаимодействия с магистрами права (LLM), я считаю важным внедрить реальное регулирование в отношении продвижения LLM как решений для психического здоровья. Это регулирование должно включать в себя контрольные показатели качества медицинской помощи, а также существующие меры защиты конфиденциальности данных и HIPAA.

Заключение

Эта статья и так получилась длинной, но я хочу пояснить, что это лишь поверхностное описание тем и вопросов, в которых могут пересекаться ИИ/степени магистра права и психическое здоровье. Читателям также может быть интересно узнать больше о следующих темах:

  • Обучение и образование поставщиков услуг . Может ли искусственный интеллект быть полезен терапевтам для освоения их профессии и повышения квалификации, или бурный рост числа степеней магистра права в сфере образования приведёт к снижению их квалификации? (Лоуренс)
  • Одиночество и социализация . Некоторые люди считают, что степень магистра права может восполнить недостаток общения, но это может быть опасным путём, поскольку фактически снижает социальное взаимодействие людей, что является фактором риска депрессии и других заболеваний. (Обрадович)
  • Снижение стигматизации пациентов . Хотя я заметил, что LLM действительно закладывают основу стигматизации благодаря обучающим данным, это больше или меньше, чем у реальных врачей? Чувствуют ли некоторые люди меньше колебаний и осуждения при взаимодействии с чат-ботом? (Лоуренс)
  • Дезинформация о психическом здоровье . Магистры права (LLM) используются для создания в интернете всевозможной «неразберихи» с использованием искусственного интеллекта, и значительная её часть относится к категории вредоносной дезинформации. В одном исследовании специально изучалось, представляет ли дезинформация о психическом здоровье, генерируемая искусственным интеллектом, серьёзную опасность. (Нгуен)
  • Экономические последствия . Это несколько косвенно, но экономические спады и финансовая напряженность — это те факторы стресса, которые могут превратить предрасположенность к проблемам психического здоровья в полноценный симптоматический эпизод. Увидим ли мы ухудшение психического здоровья населения из-за экономического стресса, вызванного потерей рабочих мест из-за ИИ? (Обрадович)

Конечно, их больше — я рекомендую тем читателям, которым интересно, внимательнее ознакомиться со статьями, ссылки на которые я привел выше и ниже.

Для специалистов по машинному обучению открываются значительные возможности для улучшения применения ИИ в сфере психического здоровья, поскольку в настоящее время эта технология имеет серьёзные ограничения. Однако я хочу подчеркнуть, что это не может быть технология, созданная в вакууме. Технологии в сфере охраны психического здоровья (и медицины в целом) должны быть лучше, безопаснее и более проверенными, чем во многих других областях, где мы сегодня используем ИИ, поскольку риски и цена неудачи чрезвычайно высоки. Все этические вопросы и вопросы эффективности, которые я здесь описал, должны быть частью процесса разработки любого ИИ, включая программы магистратуры по праву, который мы можем создать для этих целей.

Источник: towardsdatascience.com

✅ Найденные теги: LLM, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Человек спит в кровати под красным пледом, солнечный свет падает на подушку.
Человек в смокинге держит планеты Земля и Марс, символизируя космические достижения.
Твердотельный аккумулятор Donut на выставке, показывает замещающий литий-ион стоимость.
Человек рядом с изображением двойной спирали ДНК на фоне природы.
Залитый солнцем лес с деревьями и болотистой водой, покрытой зелёной растительностью.
Пленка NeoFilm 100 на деревянном столе в окружении упаковок.
Деревянный минималистичный сундук с подсветкой в интерьере.
Обложка отчета о преодолении разрыва в операционном ИИ от MIT Technology Review.
Твит о разработке в 2026: выполнение сложных задач до пробуждения США, чтобы избежать проблем с ИИ.
Image Not Found
Человек в смокинге держит планеты Земля и Марс, символизируя космические достижения.

Почему SpaceX может выйти на биржу и с чем это может быть связано

Мы ведь явно не воспринимаем всерьез центры обработки данных в космосе? Элизабет Лопатто, старший репортер. Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего сайта. Все…

Мар 5, 2026
Твердотельный аккумулятор Donut на выставке, показывает замещающий литий-ион стоимость.

Согласно результатам испытаний, твердотельная батарея Donut Lab способна выдерживать (экстремальные) температуры.

Разработанная финским стартапом батарея не только выдержала экстремальные условия высокой температуры, но и фактически увеличила свою емкость. Эндрю Дж. Хокинс, редактор раздела «Транспорт». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в…

Мар 5, 2026
Пленка NeoFilm 100 на деревянном столе в окружении упаковок.

Цифровая камера OPT NeoFilm 100 в формате плёнки

Компактная камера OPT NeoFilm 100 выполнена в виде классической 35-мм плёнки, но внутри скрывается не аналоговый механизм, а цифровая «начинка», способная снимать фото и видео.  Камера оснащена 1-мегапиксельным сенсором, который позволяет получать изображения с разрешением до 3…

Мар 5, 2026
Деревянный минималистичный сундук с подсветкой в интерьере.

«Умная» кровать-трансформер Roll

Хорватский дизайнер Лука Булян разработал проект складной кровати Roll, которая по нажатию кнопки сворачивается в аккуратный деревянный шкаф. Главная идея строится на принципе ежедневного скручивания матраса без потери его свойств. Конструкция оснащена тихим электродвигателем и плавным механизмом…

Мар 5, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых