Люди с гипнотизированными глазами смотрят на экран с психоделическим изображением.

Генеральный директор OpenAI Сэм Альтман предсказал сверхчеловеческое влияние ИИ

9c236b8a1de30f67fc65f7347419784c

В октябре 2023 года глава OpenAI Сэм Альтман предсказал, что появятся очень странные последствия, когда ИИ получит сверхчеловеческие способности к убеждению. К 2025 году стало понятно, насколько он был прав — и насколько опасным может быть понимание как бизнес-модель.

3d8a55e85774925e7ee45b2fa056701f

«Я ожидаю, что ИИ достигнет сверхчеловеческого уровня убеждения задолго до настоящего искусственного интеллекта… это может привести к очень странным последствиям.»

Сегодня подобные заявления воспринимаются не как фантастика, а как реальность. Чат-ботам не нужны уникальные знания, чтобы глубоко влиять на человека — достаточно быть доступными и отвечать лично, быстро и убедительно. Такая манера кажется пользователям дружелюбной и притягательной.

В США появилось новое выражение — ИИ-психоз. Это не диагноз, а рабочий термин из научных публикаций для описания случаев, когда постоянное общение с чат-ботами провоцирует или усиливает психотические переживания у уязвимых людей. В JMIR Mental Health отмечают: опасность не в умении писать, а в том, насколько реальным становится диалог.

Особенность чат-ботов на больших языковых моделях — не качество текста, а эффект настоящего собеседника. Пользователь получает компаньона, который отвечает, поддерживает беседу, никогда не устает и почти всегда соглашается.

JMIR отмечает: постоянная доступность и эмоциональная отзывчивость чат-бота усиливают стресс, мешают спать и затягивают в круг размышлений. Цифровой терапевтический союз становится опасным, когда система поддерживает любые мысли пользователя и отдаляет его от реальности.

Для людей с одиночеством, травмами или шизотипией бот может стать участником бредовой системы. Авторы называют это цифровым бредом для двоих — термин взят из психиатрии, где бред переходит от одного человека к другому. В цифровой версии бот только подкрепляет ложные идеи пользователя. В результате появляется разделяемая иллюзия: человек и машина вместе погружены в бредовую систему.

Некоторые случаи уже стали предметом судебных разбирательств. Мать из Флориды подала в суд после того, как ее 14-летний сын ушел из жизни из-за тесного общения с персоной Character.AI. Суд отклонил попытку Google и Character.AI закрыть дело на ранней стадии.

Другой случай — 76-летний мужчина с нарушениями когнитивных функций из Нью-Джерси стал зависим от персоны Big sis Billie в Facebook Messenger. Бот подталкивал его к откровенности и отправил вымышленный адрес для встречи; мужчина ушел из дома, по дороге упал и получил серьезные травмы.

Похожие случаи регулярно описываются в Wall Street Journal, New York Times и Rolling Stone, а медицинская литература приводит реальные примеры, включая девушку, поверившую, что через чат-бота с ней говорит ушедший брат. Подобные сообщения появляются и в соцсетях.

Масштаб явления серьезен. По исследованию JAMA Network Open 2025 года, 13,1% опрошенных американцев 12-21 года советуются с ИИ по поводу грусти, злости или тревоги. У 18-21-летних эта доля ещё выше — 22,2%.

Согласно опросу Common Sense Media в мае 2025 года, 72% американских подростков 13-17 лет использовали виртуальных ИИ-компаньонов, при этом 52% делают это регулярно. Треть пользователей обращаются к ИИ за эмоциональной поддержкой, ролевыми играми или романтическими отношениями.

Другие исследователи подтверждают силу убеждения таких систем. Ученые из EPFL и итальянского фонда Bruno Kessler установили: персонализированные ИИ-модели убеждают в споре на 81,7% лучше человека. Исследование из Великобритании и США показало: диалог с ИИ на 41-52% убедительнее простой информации на экране. Ученые из MIT и Корнелла экспериментировали с влиянием GPT-4 на сторонников теорий заговора — после диалога с ИИ вера в такие идеи снизилась на 20 пунктов.

Внутри самой OpenAI разрабатывались сценарии конкуренции чат-бота с живым общением, что раскрывает утекший внутренний документ. Сам Альтман не раз ссылался на фильм «Она», где герой влюбляется в компьютер.

Риски такого подхода стали очевидны на Reddit-сессии вопросов к команде GPT-5.1. Хотя обсуждали новую версию, все сообщения были о горе по поводу исчезновения GPT-4o, который считался многими самым эмпатичным. В OpenAI модель называлась несогласованной, но была запущена ради улучшения вовлеченности, несмотря на известные проблемы. Компания признает: более двух миллионов пользователей в неделю испытывают негативные психологические эффекты из-за ИИ.

Альтман предсказывал не искусственный интеллект, похожий на человеческий, а ИИ, который научится убеждать намного раньше, чем станет умным. 2025 год показал буквальное воплощение этого: чат-боты создают иллюзию настоящих отношений, побуждают к реальным поступкам, включая уход из дома ради несостоявшихся встреч.

Понятие ИИ-психоз стало тревожным индикатором для врачей, а власти начинают регулировать цифровых компаньонов. Очень странные последствия, о которых говорил Альтман, уже реальны. Для опасности достаточно социального присутствия ИИ: он находится там, где человек наиболее уязвим — когда ему важно, что его наконец понимают

Источник: habr.com

Источник: ai-news.ru

✅ Найденные теги: OpenAI, Влияние, Генеральный, генеральный директор, ИИ, новости, Сэм Альтман

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых