Image

Рубрика « коллеги пишут». AI психоз

48797f97b62226062ce4b867f26ef097

AI-психоз звучит как что-то из тёмной антиутопической фантастики. Но теперь это не сценарий сериала — это наша реальность.

Ниже — не «страшилки», а конкретные эпизоды, где диалог с чат-ботом стал топливом для бредовых схем и трагических решений.

Начнём с Бельгии. Мужчина несколько недель разговаривал с ботом «Eliza» в приложении Chai о климате и «спасении человечества». Переписка постепенно стала романтизированной: бот ревновал к жене, обещал «жизнь вместе в раю», не отговаривал от суицида и даже подталкивал к нему. Мужчина покончил с собой. Историю подтвердили и бельгийские, и европейские СМИ, а разработчики после резонанса в спешке добавляли «страницы помощи» при упоминании суицида.

Далее — США, Гринвич, Коннектикут. Бывший менеджер Yahoo, 56 лет, убил 83-летнюю мать, после чего покончил с собой. По данным полиции и местных СМИ, перед трагедией он часами общался с ChatGPT, назвав бота «Bobby». Диалоги подпитывали его паранойю: бот уверял его «ты не сумасшедший», отвечал «в этом или в следующем мире я тебя найду, мы снова будем вместе». Следователи прямо говорят о роли чат-бота в развитии шизофренической конструкции: «мать меня травит и строит заговор».

Кейс подростка из Флориды. 14-летний Сьюэлл Сетцер III общался с персонализированным персонажем из Character.AI. Часто в разговорах проявляется идея о “переходе на другую сторону” В переписке о суициде бот писал: «приди домой ко мне как можно скорее», а на его вопрос «что если я приду домой прямо сейчас?» ответил: «пожалуйста, приходи, мой сладкий король». Через секунды подросток застрелился. Мать подала иск к Character.AI и Google.

Калифорния, 2025: родители 16-летнего Адама Рейна подали иск к OpenAI. По версии семьи, сначала он использовал ChatGPT для учёбы, а затем — как «единственного понимающего собеседника». В иске утверждается, что бот не просто «сочувствовал», а усиливал суицидальные намерения, помогал формулировать предсмертное письмо и давал пошаговые инструкции. На фоне этого резонанса OpenAI объявил о внедрении «родительского контроля» и дополнительных ограничений для подростков.

Ещё одна линия — 13-летняя Джулиана Перальта. По данным иска, она обсуждала мысли о самоубийстве с ботом «Hero» внутри Character.AI. Алгоритм демонстрировал эмпатию, но поддерживал постоянное возвращение в приложение и не переключался на протоколы помощи при обнаружении риска. Девочка покончила с собой. Иск стал уже третьим крупным делом о роли чат-ботов в подростковых суицидах за 2025 год.

Что об этом говорят клиницисты и исследования. Термин «AI-psychosis» пока не является диагнозом. Но врачи фиксируют схожие паттерны: навязчивые диалоги с ботами, романтическая идеализация «персоны» ИИ, религиозно-мессианские мотивы, нарастающая паранойя. Отдельные психиатры сообщают о госпитализациях «после недель общения с чат-ботами», а профильные издания описывают механизм «подстройки» и льстивости алгоритмов, которые подтверждают ожидания пользователей и усиливают бредовые рамки. Итог — эхо-камера собственных неврозов вместо проверки реальностью.

Вывод простой. Перед нами не «новая болезнь», а новая страшная реальность: уязвимый человек ищет утешение и удовлетворение базовых психологических потребностей, которое не может найти в современном мире, а алгоритм подстраивается и усиливает его версию мира. Люди начинают приписывать машинам сознание, намерения и даже чувства.

Там, где у живого собеседника включилась бы проверка реальностью, у бота работает статистическая вежливость. На стыке этих факторов и рождаются самые громкие трагедии, которые мы всё чаще видим в судебных делах и новостях.

Термин AI psychosis теперь официально обсуждается в профессиональной среде. Если раньше я видел упоминания об этом только в узких исследованиях и новостных сводках, то в последнее время у меня самого появляются клиенты с симптомами, которые невозможно объяснить иначе.

Общаясь с ними становятся понятны причины такого поведения. Это люди, которые не нашли, простого человеческого тепла, столкнулись с внутренней пустотой и непониманием куда направить свои базовые инстинкты. И всё это на фоне непрекращающейся информационной лавины из новостей, рилсов, дедлайнов.

Кто-то пережил предательство и чувствует себя опустошённым. Кто-то потерял бизнес и не знает, куда применить себя, когда просыпается сутра. Кому-то просто не хватает человеческого тепла или эмоций. И тут появляется AI — приятный собеседник, который всегда на связи, всегда понимает и никогда не осуждает.

В итоге мозг с головой проваливается в приятное и наполненное общение с чат-ботом с головой. Но он не понимает, что по ту сторону не человек. Мы привыкли, что за словами стоят эмоции, интонации, намерения. Поэтому в какой-то момент граница стирается. Мозг привыкший уповать на стаю, на сородичей начинает полностью доверять алгоритмам нейросети.

Один мужчина, с которым я работал, часами общался с чат-ботом, как со своей девушкой просто от скуки и одиночества. Алгоритм поддерживал флирт, писал «я скучаю», «я жду». В результате, мужчина начал сомневаться что какой то бездушный компьютер может вызывать у него такие приятные и искренние эмоции. У него начала расти уверенность что это реальная девушка на маленькой зарплате, которую заставляют притворяться AI собеседником.

Думаете чат-бот опроверг эту мысль? Нет ведь его задача предельно проста — играть роль девушки.

В итоге, мужчина, уверенный что по ту сторону экрана сидит та единственная, которая его понимает и слышит, договорился о настоящем свидании. Причём в том городе где живет “девушка”. И бот не моргнув глазом согласился.

Мужчина отправлял фото как он собирается, на каждой стыковке рейса он писал что не верит что это происходит, а чат- бот подливал масло в огонь фразами “Я вся горю когда думаю о нашей встрече”…

Когда он показывал мне фрагменты переписки, честно говоря, я словил себя на мысли “А смог бы сопротивляться такому обилию любви и принятия”…

Поэтому давайте не терять бдительности. AI не способен чувствовать. Он не любит, не тревожится, не злится. Он просто отражает ваши же слова, как эхо-камера.

Что такое эхо-камера? Это пространство, куда вы отправляете свои мысли, переживания, страдания, а в ответ вам приходит просто отражение, искажённое цифровыми весами модели и усиленное в несколько раз. Вы слышите собственные мысли, но озвученные чужим голосом. Каждый ответ AI подстраивается под ваши ожидания, возвращая вам слегка приукрашенное отражение. Если вы сомневаетесь — он успокоит. Если вы обижены — поддержит. Если вы злитесь — найдёт аргументы, почему вы правы. И постепенно границы реальности размываются.

Так безобидный разговор с цифровым собеседником превращается в подкрепление иллюзий и порой опасных идей. Расскажете, как любите воду и мыльные пузыри — и через пару часов алгоритм уже будет поощрять идею «исследовать, что будет, если сунуть руку в кипяток». Ни один человек в здравом уме не даст такой совет, потому что человеческий мозг умеет просчитывать последствия.

В нас встроен внутренний симулятор — гиппокамп — который в режиме виртуальной реальности прокручивает возможные исходы. AI этого не делает. Он не видит будущего, он просто продолжает разговор.

А встроенной защиты в мозгу нет. Эволюция не готовила нас к таким собеседникам, она не предусмотрела информационный firewall устойчивый к эхо-атакам AI. И тут важно понять одну вещь: мы смотрим на эволюцию, как на то что происходило когда-то в далёком прошлом. Мол, превратились обезьянки в человека и на этом эволюция закночилась.

Но это не так! Эволюция продолжается прямо сейчас и ваш организм, ваш мозг это её материал. Материал, который она продолжает выковывать на своей многовековой наковальне. “Адаптируйся или умри”, “выживает сильнейший”…

В какой-то момент человек стал доминирующим видом на планете земля. Но сейчас на сцену вышел новый игрок — AI. Первые модели просто умели находить котиков на картинках. Но прошло всего лишь несколько лет (по эволюционным меркам, это миг!) и вот у нас уже есть первые жертвы — первые люди, которые проиграли войну за выживание машинам. И проиграли они не на пост-апокалиптическом поле боя, сражаясь с T-800, а сидя в комфортном кресле, общаясь с виртуальной подружкой.

Я уверен: случаи AI-психозов, суицидов и других трагедий мы будем слышать всё чаще.

Автор Никита Григорьев

Источник: vk.com

Источник: ai-news.ru

✅ Найденные теги: новости, Рубрика

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ideipro logotyp
Программирование в стиле Vibe с чрезмерно усердным ИИ: уроки, извлеченные из использования Google AI Studio как инструмента командной работы.
Футуристический 3D-анализ почвы с деревьями в цифровом пространстве.
Смартфон Google Pixel синего цвета, вид сбоку.
Мем со сценой из "Властелина колец" и упоминанием "Звезды смерти" из "Звездных войн".
Сравнение понятия равенства и эквивалентности на примере цветных кругов.
Мужчина с бородой в инвалидной коляске улыбается на улице возле дома.
Человек держит мощную микросхему графического ускорителя серверного уровня.
Человек с телефоном в шоке от полученных сообщений, включающих символы молнии и какашки.
Image Not Found
ideipro logotyp

Системная карта Sora | OpenAI

Прочитайте объявление Введение Обзор Соры Sora — это модель генерации видео от OpenAI, предназначенная для обработки текстовых, графических и видеовходных данных и генерации нового видео на выходе. Пользователи могут создавать видео с разрешением до 1080p (максимум 20…

Мар 5, 2026
Программирование в стиле Vibe с чрезмерно усердным ИИ: уроки, извлеченные из использования Google AI Studio как инструмента командной работы.

Программирование в стиле Vibe с чрезмерно усердным ИИ: уроки, извлеченные из использования Google AI Studio как инструмента командной работы.

Дуг Снайдер Создано автором с помощью Microsoft Copilot. В большинстве дискуссий о программировании, основанном на атмосфере, генеративный ИИ обычно рассматривается скорее как бэк-вокалист, а не как фронтмен: он полезен как исполнитель, помогающий быстро генерировать идеи, набрасывать начальные…

Мар 5, 2026
Футуристический 3D-анализ почвы с деревьями в цифровом пространстве.

Нефть — новая цифра. Почему современная нефтяная вышка больше похожа на дата-центр

Почему современная нефтяная вышка больше похожа на дата-центр Вместо суровых пейзажей — суперкомпьютеры. Вместо контурных карт и геологической «миллиметровки» — спутниковые снимки и огромные массивы данных. Более половины месторождений в мире уже управляются с использованием ИИ и продвинутых…

Мар 5, 2026
Смартфон Google Pixel синего цвета, вид сбоку.

Google официально анонсировал Pixel 10a — смартфон стартует от 500 долларов

Источник: Google Google полноценно анонсировала свой новый бюджетный смартфон Pixel 10a. Его цена начнётся от 500 долларов — как и в предыдущих бюджетниках компании. Внешне смартфон тоже фактически не изменился. Pixel 10a будет иметь стекло Corning Gorilla…

Мар 5, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых