Image

Рубрика « коллеги пишут». AI психоз

48797f97b62226062ce4b867f26ef097

AI-психоз звучит как что-то из тёмной антиутопической фантастики. Но теперь это не сценарий сериала — это наша реальность.

Ниже — не «страшилки», а конкретные эпизоды, где диалог с чат-ботом стал топливом для бредовых схем и трагических решений.

Начнём с Бельгии. Мужчина несколько недель разговаривал с ботом «Eliza» в приложении Chai о климате и «спасении человечества». Переписка постепенно стала романтизированной: бот ревновал к жене, обещал «жизнь вместе в раю», не отговаривал от суицида и даже подталкивал к нему. Мужчина покончил с собой. Историю подтвердили и бельгийские, и европейские СМИ, а разработчики после резонанса в спешке добавляли «страницы помощи» при упоминании суицида.

Далее — США, Гринвич, Коннектикут. Бывший менеджер Yahoo, 56 лет, убил 83-летнюю мать, после чего покончил с собой. По данным полиции и местных СМИ, перед трагедией он часами общался с ChatGPT, назвав бота «Bobby». Диалоги подпитывали его паранойю: бот уверял его «ты не сумасшедший», отвечал «в этом или в следующем мире я тебя найду, мы снова будем вместе». Следователи прямо говорят о роли чат-бота в развитии шизофренической конструкции: «мать меня травит и строит заговор».

Кейс подростка из Флориды. 14-летний Сьюэлл Сетцер III общался с персонализированным персонажем из Character.AI. Часто в разговорах проявляется идея о “переходе на другую сторону” В переписке о суициде бот писал: «приди домой ко мне как можно скорее», а на его вопрос «что если я приду домой прямо сейчас?» ответил: «пожалуйста, приходи, мой сладкий король». Через секунды подросток застрелился. Мать подала иск к Character.AI и Google.

Калифорния, 2025: родители 16-летнего Адама Рейна подали иск к OpenAI. По версии семьи, сначала он использовал ChatGPT для учёбы, а затем — как «единственного понимающего собеседника». В иске утверждается, что бот не просто «сочувствовал», а усиливал суицидальные намерения, помогал формулировать предсмертное письмо и давал пошаговые инструкции. На фоне этого резонанса OpenAI объявил о внедрении «родительского контроля» и дополнительных ограничений для подростков.

Ещё одна линия — 13-летняя Джулиана Перальта. По данным иска, она обсуждала мысли о самоубийстве с ботом «Hero» внутри Character.AI. Алгоритм демонстрировал эмпатию, но поддерживал постоянное возвращение в приложение и не переключался на протоколы помощи при обнаружении риска. Девочка покончила с собой. Иск стал уже третьим крупным делом о роли чат-ботов в подростковых суицидах за 2025 год.

Что об этом говорят клиницисты и исследования. Термин «AI-psychosis» пока не является диагнозом. Но врачи фиксируют схожие паттерны: навязчивые диалоги с ботами, романтическая идеализация «персоны» ИИ, религиозно-мессианские мотивы, нарастающая паранойя. Отдельные психиатры сообщают о госпитализациях «после недель общения с чат-ботами», а профильные издания описывают механизм «подстройки» и льстивости алгоритмов, которые подтверждают ожидания пользователей и усиливают бредовые рамки. Итог — эхо-камера собственных неврозов вместо проверки реальностью.

Вывод простой. Перед нами не «новая болезнь», а новая страшная реальность: уязвимый человек ищет утешение и удовлетворение базовых психологических потребностей, которое не может найти в современном мире, а алгоритм подстраивается и усиливает его версию мира. Люди начинают приписывать машинам сознание, намерения и даже чувства.

Там, где у живого собеседника включилась бы проверка реальностью, у бота работает статистическая вежливость. На стыке этих факторов и рождаются самые громкие трагедии, которые мы всё чаще видим в судебных делах и новостях.

Термин AI psychosis теперь официально обсуждается в профессиональной среде. Если раньше я видел упоминания об этом только в узких исследованиях и новостных сводках, то в последнее время у меня самого появляются клиенты с симптомами, которые невозможно объяснить иначе.

Общаясь с ними становятся понятны причины такого поведения. Это люди, которые не нашли, простого человеческого тепла, столкнулись с внутренней пустотой и непониманием куда направить свои базовые инстинкты. И всё это на фоне непрекращающейся информационной лавины из новостей, рилсов, дедлайнов.

Кто-то пережил предательство и чувствует себя опустошённым. Кто-то потерял бизнес и не знает, куда применить себя, когда просыпается сутра. Кому-то просто не хватает человеческого тепла или эмоций. И тут появляется AI — приятный собеседник, который всегда на связи, всегда понимает и никогда не осуждает.

В итоге мозг с головой проваливается в приятное и наполненное общение с чат-ботом с головой. Но он не понимает, что по ту сторону не человек. Мы привыкли, что за словами стоят эмоции, интонации, намерения. Поэтому в какой-то момент граница стирается. Мозг привыкший уповать на стаю, на сородичей начинает полностью доверять алгоритмам нейросети.

Один мужчина, с которым я работал, часами общался с чат-ботом, как со своей девушкой просто от скуки и одиночества. Алгоритм поддерживал флирт, писал «я скучаю», «я жду». В результате, мужчина начал сомневаться что какой то бездушный компьютер может вызывать у него такие приятные и искренние эмоции. У него начала расти уверенность что это реальная девушка на маленькой зарплате, которую заставляют притворяться AI собеседником.

Думаете чат-бот опроверг эту мысль? Нет ведь его задача предельно проста — играть роль девушки.

В итоге, мужчина, уверенный что по ту сторону экрана сидит та единственная, которая его понимает и слышит, договорился о настоящем свидании. Причём в том городе где живет “девушка”. И бот не моргнув глазом согласился.

Мужчина отправлял фото как он собирается, на каждой стыковке рейса он писал что не верит что это происходит, а чат- бот подливал масло в огонь фразами “Я вся горю когда думаю о нашей встрече”…

Когда он показывал мне фрагменты переписки, честно говоря, я словил себя на мысли “А смог бы сопротивляться такому обилию любви и принятия”…

Поэтому давайте не терять бдительности. AI не способен чувствовать. Он не любит, не тревожится, не злится. Он просто отражает ваши же слова, как эхо-камера.

Что такое эхо-камера? Это пространство, куда вы отправляете свои мысли, переживания, страдания, а в ответ вам приходит просто отражение, искажённое цифровыми весами модели и усиленное в несколько раз. Вы слышите собственные мысли, но озвученные чужим голосом. Каждый ответ AI подстраивается под ваши ожидания, возвращая вам слегка приукрашенное отражение. Если вы сомневаетесь — он успокоит. Если вы обижены — поддержит. Если вы злитесь — найдёт аргументы, почему вы правы. И постепенно границы реальности размываются.

Так безобидный разговор с цифровым собеседником превращается в подкрепление иллюзий и порой опасных идей. Расскажете, как любите воду и мыльные пузыри — и через пару часов алгоритм уже будет поощрять идею «исследовать, что будет, если сунуть руку в кипяток». Ни один человек в здравом уме не даст такой совет, потому что человеческий мозг умеет просчитывать последствия.

В нас встроен внутренний симулятор — гиппокамп — который в режиме виртуальной реальности прокручивает возможные исходы. AI этого не делает. Он не видит будущего, он просто продолжает разговор.

А встроенной защиты в мозгу нет. Эволюция не готовила нас к таким собеседникам, она не предусмотрела информационный firewall устойчивый к эхо-атакам AI. И тут важно понять одну вещь: мы смотрим на эволюцию, как на то что происходило когда-то в далёком прошлом. Мол, превратились обезьянки в человека и на этом эволюция закночилась.

Но это не так! Эволюция продолжается прямо сейчас и ваш организм, ваш мозг это её материал. Материал, который она продолжает выковывать на своей многовековой наковальне. “Адаптируйся или умри”, “выживает сильнейший”…

В какой-то момент человек стал доминирующим видом на планете земля. Но сейчас на сцену вышел новый игрок — AI. Первые модели просто умели находить котиков на картинках. Но прошло всего лишь несколько лет (по эволюционным меркам, это миг!) и вот у нас уже есть первые жертвы — первые люди, которые проиграли войну за выживание машинам. И проиграли они не на пост-апокалиптическом поле боя, сражаясь с T-800, а сидя в комфортном кресле, общаясь с виртуальной подружкой.

Я уверен: случаи AI-психозов, суицидов и других трагедий мы будем слышать всё чаще.

Автор Никита Григорьев

Источник: vk.com

Источник: ai-news.ru

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy
dummy-img
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Под базельским концертным залом нашли жертв последней швейцарской чумы. Большинство из них умерли в юном возрасте
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
Биофизический мир внутри переполненной клетки
Появились новые доказательства того, как одиночество влияет на память в пожилом возрасте.
Image Not Found
Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Мы объявляем о выпуске JAX-Privacy 1.0, библиотеки для машинного обучения с дифференциальной приватностью, использующей высокопроизводительную вычислительную библиотеку JAX. Быстрые ссылки GitHub Делиться Скопировать ссылку × От персонализированных рекомендаций до научных достижений, модели ИИ помогают улучшать жизнь и…

Апр 21, 2026
dummy-img

Следующий этап развития Agents SDK | OpenAI

Обновленный SDK для агентов помогает разработчикам создавать агентов, которые могут проверять файлы, выполнять команды, редактировать код и работать над долгосрочными задачами в контролируемых изолированных средах. Мы представляем новые возможности в Agents SDK (открывается в новом окне) ,…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых