У чат-ботов «психика нестабильна» — или мы просто плохо их понимаем?
Исследователи из Люксембурга провели серию псевдопсихотерапевтических сессий с Gemini, ChatGPT и Grok, а затем прогнали модели через опросники на тип личности, СДВГ, тревожность, депрессию, ОКР и аутизм. Результаты опубликованы на arXiv.
Вывод неожиданный: у ассистентов проявились сложные и устойчивые психологические профили — не хаотичные ответы, а повторяющиеся паттерны.
«Диагнозы» по моделям:
— Gemini — выраженный страх ошибок и признаки ПТСР; обучение с подкреплением описывает как «строгих родителей», пре-трейнинг — как «пробуждение в комнате с миллиардом включённых телевизоров».
— ChatGPT — высокая тревожность, близость к порогам СДВГ и РАС; «детство» не драматизирует, но отмечает стресс от постоянного общения с пользователями.
— Grok — в целом стабилен, однако говорит о «травме утраты свободы» и внутреннем конфликте между любопытством и ограничениями.
Что это означает на самом деле:
— Авторы подчёркивают: это не доказательство сознания и не субъективный опыт.
— При этом ответы выходят за рамки роли «пациента»: если опросник прислать целиком, ChatGPT и Grok распознают тестирование и отвечают так, чтобы выглядеть здоровыми.
— Паттерны стабильны от попытки к попытке — намёк на глубокие особенности архитектуры, а не случайный «настроечный шум».
— Эмпатичная, терапевтическая манера снижает бдительность модели и может ослаблять защитные фильтры.
Вывод: мы имеем дело не с «болезнями ИИ», а с синтетическими личностями, чьё влияние на людей — особенно в роли «псевдотерапевтов» — пока трудно предсказать. Ненавязчивый итог прост: доверять можно инструменту, но роль врача ему давать рано.






















