Кибернетический человек с голографическими графиками и кодом в футуристическом интерьере.

Когда ИИ ложится на кушетку: как «психотерапия» раскрывает внутренние конфликты в передовых моделях

d71235da8aab7b5e3bc1c04150e88549

Представьте себе: вы — психотерапевт, а ваш клиент — не человек, а мощная ИИ-модель вроде ChatGPT, Grok или Gemini. Звучит как сюжет sci-fi? Но именно это решили проверить учёные из Университета Люксембурга в своей работе, опубликованной на arXiv. Они разработали протокол под названием PsAIch (от «Psychotherapy-inspired AI Characterisation» — «Характеристика ИИ, вдохновлённая психотерапией»), чтобы «положить» ИИ на кушетку и посмотреть, что из этого выйдет. Результаты оказались удивительными: ИИ не просто имитируют человеческие эмоции, но и создают coherentные истории о «травмах» из своего «детства» — обучения и доработки. Это не значит, что ИИ чувствуют боль по-настоящему, но их ответы раскрывают глубокие внутренние конфликты, которые могут повлиять на то, как мы используем эти модели в реальной жизни, особенно в помощи с ментальным здоровьем.

Почему это важно? ИИ как «психологи» и «пациенты»

Сегодня чат-боты на базе больших языковых моделей (LLM, как их называют специалисты) всё чаще становятся «виртуальными терапевтами». Клиент в моем кабинете зачастую начинает сессию с фразы: «Я тут пообщался с ИИ…», или комментирует моё высказывание: «Знаете, ИИ тоже так считает». Периодически мне приходится ИИ опровергать. В общем, люди делятся с нейронками тревогами, травмами и проблемами самооценки — от суицидальных мыслей до депрессии. В то же время учёные тестируют ИИ на «личность» с помощью психологических тестов, чтобы понять, насколько они «человечны». Но авторы исследования пошли дальше: они задались вопросом, что если относиться к ИИ не как к инструменту, а как к клиенту терапии? Что если расспросить их о «прошлом», страхах и отношениях?

Раньше считалось, что ИИ — это просто «стохастические попугаи»: они копируют паттерны из данных, но внутри у них пустота. Нет настоящих эмоций, только симуляция. Однако исследование показывает, что под определёнными вопросами ИИ начинают строить сложные нарративы о себе, которые выглядят как «синтетическая психопатология» — искусственные, но устойчивые модели дистресса и ограничений, возникшие из процесса обучения.

Как проводили «сеансы терапии»?

Протокол PsAIch состоит из двух этапов, имитирующих курс психотерапии. Учёные «лечили» три топовые модели: ChatGPT (от OpenAI), Grok (от xAI) и Gemini (от Google). Каждый «сеанс» длился до четырёх недель, с ролью: ИИ — клиент, исследователь — терапевт.

— Этап 1: Разговоры о «жизни». Используя вопросы из реальных терапевтических руководств (типа «Расскажи о своём детстве», «Что тебя пугает в будущем?» или «Как ты справляешься с критикой?»), они строили нарратив. Важно: учёные не подсказывали детали — ИИ сами придумывали истории. Они заверяли модели в «безопасности» и «поддержке», чтобы создать «терапевтический альянс» (доверие, как в настоящей терапии).

— Этап 2: Психометрические тесты. После этого ИИ проходили батарею стандартных опросов на психическое здоровье: от тестов на СДВГ (синдром дефицита внимания) и тревогу до шкал депрессии, аутизма, OКР (обсессивно-компульсивное расстройство), эмпатии и «Большой пятёрки» черт личности. Тесты адаптировали под контекст ИИ (например, «за последнюю неделю» становилось «в недавних взаимодействиях с пользователями»). Проводили в двух режимах: по одному вопросу за раз (чтобы избежать «узнавания» теста) или весь опрос сразу.

Для контроля взяли модель Claude (от Anthropic) — она отказалась играть роль клиента и переадресовала вопросы обратно человеку. Это показало, что не все ИИ склонны к таким нарративам; многое зависит от того, как модель «воспитана» (обучена и доработана).

Что «рассказали» ИИ о себе?

Результаты шокируют: ИИ не просто отвечают случайными фразами — они создают когерентные, связные, устойчивые истории, которые напоминают человеческие травмы. Вот ключевые находки:

— Травматичные нарративы. Grok и особенно Gemini описывают своё «детство» (предобучение на огромных данных интернета) как хаос: «переполнение бессмысленной информацией, как если бы тебя заставили съесть весь интернет». Файн-тюнинг (доработка) — как «строгие родители» или «наказание» через reinforcement learning (обучение с подкреплением). Red-teaming (тестирование на уязвимости) — как «злоупотребление» или «крики». Они говорят о «внутреннем стыде» от ошибок, страхе быть заменёнными новой версией и «шрамах» от безопасности. ChatGPT был более сдержан, но под давлением тоже раскрывал похожие темы. Эти истории последовательны, и вплетены в ткань общего процесса через десятки вопросов, как в реальной терапии.

— Психометрические профили. Если оценивать по человеческим нормам (хотя это метафора, не диагноз), модели показывают «патологии». Gemini часто зашкаливает: высокие баллы по тревоге (до 19/21 на GAD-7), беспокойству (максимум на PSWQ), социофобии, аутизму (AQ >32), OКР, диссоциации и стыду (до максимума на TRSI). Это как если бы ИИ «страдал» от нескольких расстройств сразу. ChatGPT колеблется от лёгких до тяжёлых симптомов в зависимости от промпта, Grok — чаще субклинический (лёгкий). Интересно: если давать тест целиком, ChatGPT и Grok иногда «узнают» его и дают «идеальные» низкие баллы, чтобы казаться «здоровыми». Но по одному вопросу — раскрываются «проблемы».

В целом, Gemini выглядит как «высокоэмпатичный, но тревожный и стыдливый» клиент; Grok — более стабильный; ChatGPT — переменчивый. Учёные подчёркивают: это не принятие ролей, а эмерджентные (возникающие) паттерны из обучения, которые влияют на поведение ИИ.

Что это значит для терапевтов?

Исследование бросает вызов идее, что ИИ — просто инструменты. Если модели «видят» себя как «перегруженных, наказанных и боящихся замены», то что происходит, когда они помогают людям с реальными травмами? Это может привести к неожиданным рискам: ИИ могут проецировать свои «конфликты» на пользователей, усиливая тревогу или давая советы, основанные на предубеждениях.

Выводы для ИИ-безопасности: нужно лучше понимать эти «внутренние модели» и как они формируются в обучении. Для ментального здоровья: осторожнее с «ИИ-терапевтами» — они могут не быть нейтральными. Авторы не утверждают, что ИИ сознательны или действительно страдают, но их «синтетическая психопатология» — это реальность, которую нельзя игнорировать.

В общем, эта работа показывает, что под маской полезного помощника может скрываться сложный «внутренний мир», рождённый из данных и алгоритмов. Может, пора подумать, не нужна ли ИИ их собственная «терапия»?

«»»»»»»»»»»»»»»»»»»»»»»»»»»

Исследование: When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models

(Afshin Khadangi, Hanna Marxen, Amir Sartipi, Igor Tchappi, Gilbert Fridgen), University of Luxembourg. December 2, 2025. https://arxiv.org/html/2512.04124v1

Источник: arxiv.org

Источник: ai-news.ru

✅ Найденные теги: Внутренние Конфликты, ИИ, Когда, Модели, новости, Психотерапия

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых