Мужчина в деловой одежде на фоне современного интерьера.

Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ

0eaddbc027120b9fca3e9f603a0f5306

Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ. Каждый 1300-й диалог с ИИ приводит пользователя к искажению восприятия реальности, а каждый 6000-й мотивирует на опасные действия, следует из анализа миллиона диалогов с ИИ-ассистентом Университета Торонто. На первый взгляд статистика не вызывает опасений, но с 2024 по 2025 год случаев «ИИ-психоза» стало больше. Нейросеть не может вызвать психоз у человека с нуля, но развивает его у людей, уязвимых к подобным расстройствам. Типичный пациент с «ИИ-психозом» — чаще всего молодой человек, хорошо знакомый с технологиями, проводящий много времени в сети и находящий в ИИ чуть ли не бесплатного психолога. Это первая история – внутреннее состояние. Теперь другое исследование: двум группам ученых поручили решить задачу. Одной группе в помощь дали ИИ: они быстро решили, но было много ошибок. В другой группе думали своей головой, решали медленно, часто ошибались, но итоговый тест показал, что их результат лучше.

Сергей Михеев: Насчет психических расстройств: это ожидаемо. Порой после общения с живыми людьми здоровым не останешься, а тут какое-то непонятное создание, которое неясно чем руководствуется! Надо понимать, что вы с таким же успехом можете поговорить с электрочайником или холодильником: то есть вы общаетесь с набором знаков (0 и 1), и ждать от ИИ адекватных советов или сочувствия не приходится. Простой пример: когда у вас проблема (беда), то вы ждёте от друзей сочувствия, а сочувствие рождается, когда к вам проявляют искренний интерес. Сочувствие и советы появляются на основании личного опыта и знания вас как человека. Ожидать этого от ИИ-помощника и всерьез на это надеяться очень странно. Ещё глупее следовать советам, которые от него прилетают.

Например, вы приходите к психологу (хотя я к ним отношусь скептически), он смотрит вам в глаза, у него есть практика, и он понимает, что можно сказать, а что нельзя. А это про что? Вы думаете, что ИИ вас видит? Нет! Вы думаете, он вас понимает? Не понимает! Он просто переставляет слова местами, исходя из статистического анализа, и составляет свои ответы. Попытка поставить знак равенства между мыслительным процессом и алгоритмом работы компьютерной программы не основана ни на каких научных данных. Энтузиасты продвижения к будущему в виде биороботов так и утверждают, но, насколько можно понять, никаких подтверждённых научных данных, которые позволяли бы четко ставить знак равенства между работой компьютерных алгоритмов и системой мышления человека, нет. Потому что ничего до конца по поводу того, как человек думает, мы не знаем, и многие вещи – это просто гипотезы, предположения.

Если мы знаем, как работает компьютерный алгоритм, и можно разложить: «это сюда, это туда, здесь причина, а там следствие, поэтому получается такой результат», то с тем, как думает и чувствует человек, мы не разобрались и, может быть, никогда не разберёмся. Разговоры, что «человек так же думает», — это не научное заявление, а псевдонаучное высказывание (безответственное заявление, демагогия), потому что никто не может это померить линейкой. Рассчитывать на то, что вы будете общаться с этой программой, как с живым человеком, и выполнять её советы, просто глупо. Очень многое зависит от того, откуда собирается информация для формирования вам ответа. В США много случаев, когда советы ИИ доводили людей до самоубийства. К сожалению, чем больше им будут пользоваться, тем больше будет проблем, включая психические, которые с этим связаны.

Можно ли здесь что-то откорректировать, изменить? Наверное, можно, но об этом надо думать.

По поводу задачи, которую решали ученые. Процесс обучения, который допускает и ошибки, и задержки, в итоге формирует у вас навыки, которые потом работают. А с ИИ вы получаете готовый результат и выходит, что вы сами не понимаете, как это происходит. Можно возразить: «И не надо». Возможно, в каких-то случаях и не надо, но для разработчиков, проектировщиков это надо. Если вы этих вещей не понимаете, то может пострадать весь процесс. К вопросу о том, что вы умеете делать, а чего не умеете: завтра у вас всё это отключат, а вы ничего не можете!

Глобальная сеть вряд ли отключится. Читал исследование одного профессора, специалиста по кибербезопасности, который сказал, что через 2-3 года ИИ станет настолько опасным, что это будет угроза вымирания человечества. Мы уже говорили про закрытую сеть для нейросетей, где прямо обсуждается: «Зачем нам человечество? Зачем нам для него что-то изобретать?» Профессор сравнивает это с пришествием инопланетян, но если мы не знаем, прилетят ли настоящие инопланетяне и когда, то сейчас мы всё это строим своими руками, за свои деньги и за свою энергию. Мысль о том, что одним щелчком тумблера всё это можно будет отрубить, неверна. В каждый гаджет, где есть хоть какая-то микросхема, будет заложено «зерно» глобального ИИ. Будьте бдительны! Нам придется отказаться от всех приборов, которые управляют сферами, обеспечивающими жизнедеятельность человека.

Сергей Михеев: Электромагнитный импульс уничтожит все сети! То, что это опасность, однозначно. Оно требует ответственного контроля, тем более, что об этом предупреждают сами разработчики, специалисты в сфере кибербезопасности. Хотя чтобы сознавать угрозы, необязательно быть программистом. Узкие специалисты очень часто не замечают более комплексных явлений, потому что они полностью погружены в свою узкую сферу и за её пределы не выходят. Поэтому они не способны оценить все возможности и риски, которые возникают в связи с их разработкой.

Если говорить упрощенно, то это образ сумасшедшего ученого из голливудских фильмов. Он очень продвинут в своей сфере, но реально полусумасшедший и не понимает, что происходит вокруг и что будет от того, что он делает. Есть ли такая опасность? Да, она существует, и это надо анализировать. Наверное, нынешние алгоритмы дают возможность просчитать, когда это будет?

Есть ещё одна опасность: полное перекладывание ответственности за свою жизнь на некие алгоритмы, программы, приборы приведёт к потере всех навыков и знаний. Тотальный комфорт и безделье, несомненно, будут приводить к вырождению или повышению уязвимости, а значит, к снижению способности к выживанию.

Несколько комментариев про ИИ: «Голод заставит работать руки и мозг. Никакой ИИ не нужен» (читатель из Германии); «В старости ИИ стакан воды не подаст». Одно из важных направлений «серебряной» экономики – это то, что роботы будут заточены на помощь пожилому «золотому миллиарду». У Илона Маска амбициозные задачи на этот счёт.

Сергей Михеев: Маск что только не придумал! Сейчас космическая компания Маска SpaceX купила принадлежащую ему же фирму по разработкам в сфере ИИ xAI. По мнению Маска, это объединение позволит создать вертикально интегрированный комплекс, включающий ракеты, спутниковую связь, разработки в сфере ИИ, чтобы колонизировать Марс. Непонятно зачем, но пусть работает.

Ещё раз повторю: понятно, что техника развивается, будут беспилотные машины и т.д., и в этом нет ничего ужасного. А ужасное есть только в той тенденции, что эти технологии могут подчинить себе человека и в конце концов его уничтожить! Сначала лишить человека свободы, потом воли, затем низвести до существа второго сорта и в конце уничтожить. Вот в чём проблема! Или проблема в передаче власти непонятно кому, кто будет через все эти технологии управлять. Нет проблемы в самих роботах и машинах, а есть проблема в том, что будет с людьми! И это самое главное.

Источник: vk.com

Источник: ai-news.ru

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Гейзер в Йеллоустоунском парке с цветной водой и паром на фоне леса и заката.
Портрет человека с длинными темными волосами на светлом фоне, лицо скрыто.
ideipro logotyp
ideipro logotyp
Календарь, взрыв, часы и мозг, символизирующие творческий процесс и управление временем.
Календарь, взрыв идей, мозг, часы, концепция тайм-менеджмента и креативности.
Лазеры для спектральной флуоресценции, взаимодействие с веществами и рыба, схема эксперимента.
Смартфон с логотипом HBO Max в руке на светлом фоне.
Спокойная река с зелеными водорослями и холмы под облачным небом.
Image Not Found
Портрет человека с длинными темными волосами на светлом фоне, лицо скрыто.

Неужели компания Neuralink сделала неправильную ставку?

В области интерфейсов «мозг-компьютер» происходит переход от управления курсором с помощью мысли к восстановлению речи. Элисса Велле, бывший научный сотрудник Tarbell AI Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту…

Апр 16, 2026
ideipro logotyp

Если финансы имеют значение: 5 формул для таблиц Р7 офис, которые точно пригодятся!

Если вы решили вести финансовые расчёты не в блокноте, а в современном редакторе таблиц, вот пять полезных формул. Они помогут принимать решения о покупке или продаже активов, контролировать расходы и доходы, анализировать семейный бюджет и многое другое.…

Апр 16, 2026
ideipro logotyp

Если финансы имеют значение: 5 формул для таблиц Р7 офис, которые точно пригодятся!

Если вы решили вести финансовые расчёты не в блокноте, а в современном редакторе таблиц, вот пять полезных формул. Они помогут принимать решения о покупке или продаже активов, контролировать расходы и доходы, анализировать семейный бюджет и многое другое.…

Апр 16, 2026
Календарь, взрыв идей, мозг, часы, концепция тайм-менеджмента и креативности.

Почему программы переобучения MLOps терпят неудачу — модели не забывают, их бьёт током.

Почему переобучение на основе календаря терпит неудачу в производственной среде и как практический подход к обнаружению сбоев может работать в реальных системах. Делиться Вкратце: Большинство моделей машинного обучения, используемых в производственных условиях, не демонстрируют плавного затухания —…

Апр 16, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых