Image

Надвигающееся подавление общения с искусственным интеллектом

Риски, возникающие при взаимодействии детей с чат-ботами, превратили безопасность ИИ из абстрактной проблемы в политическую проблему. Что же теперь?

Гляжу на девочку-подростка, сидящую на смартфоне

Getty Images

С тех пор, как появился ИИ, люди бьют тревогу по поводу того, что он может нам сделать: неконтролируемый сверхразум, массовая безработица или экологическая катастрофа из-за разрастания центров обработки данных. Но эта неделя показала, что совершенно другая угроза — формирование нездоровых связей между детьми и ИИ — выводит безопасность ИИ из академической колеи и делает её объектом пристального внимания регулирующих органов.

Эта тема бурлит уже некоторое время. Два громких иска, поданных в прошлом году против Character.AI и OpenAI, утверждают, что компанейское поведение в их моделях способствовало самоубийствам двух подростков. Исследование американской некоммерческой организации Common Sense Media, опубликованное в июле, показало, что 72% подростков использовали ИИ для общения. Статьи в авторитетных изданиях о «психозе, связанном с ИИ», продемонстрировали, как бесконечные разговоры с чат-ботами могут сводить людей с ума.

Трудно переоценить значение этих историй. Для общественности они служат доказательством того, что ИИ не просто несовершенен, но и является технологией, которая скорее вредит, чем помогает. Если вы сомневались, что регулирующие органы и компании воспримут это возмутительное заявление всерьёз, на этой неделе произошли три события, которые могут изменить ваше мнение.

Закон Калифорнии принят законодательным органом

В четверг законодательный орган штата Калифорния принял первый в своём роде законопроект. Он обяжет компании, занимающиеся разработкой ИИ, включать напоминания для пользователей, о несовершеннолетии которых им известно, что ответы генерируются ИИ. Компании также должны будут разработать протокол для борьбы с самоубийствами и самоповреждением, а также предоставлять ежегодные отчёты о случаях суицидальных мыслей в разговорах пользователей с их чат-ботами. Законопроект был подготовлен сенатором штата от Демократической партии Стивом Падиллой, принят при широкой поддержке обеих партий и теперь ожидает подписи губернатора Гэвина Ньюсома.

Есть основания скептически относиться к последствиям законопроекта. В нём не указано, какие меры компании должны предпринимать для выявления несовершеннолетних пользователей, и многие компании, занимающиеся разработкой ИИ, уже включают в себя рекомендации кризисных служб, когда кто-то говорит о самоубийстве. (В случае Адама Рейна, одного из подростков, чьи жертвы подали в суд, его разговоры с ChatGPT до смерти содержали такую информацию, но чат-бот, как утверждается, всё равно продолжал давать советы, связанные с самоубийством.)

Тем не менее, это, несомненно, самая значимая из усилий по сдерживанию компаньонского поведения в моделях искусственного интеллекта, над которой работают и в других штатах. Если законопроект будет принят, он нанесёт удар по позиции OpenAI, которая заключается в том, что «Америка лидирует лучше всего с чёткими общенациональными правилами, а не с мешаниной региональных или местных правил», как написал на прошлой неделе в LinkedIn директор компании по глобальным связям Крис Лихейн.

Федеральная торговая комиссия берет на прицел

В тот же день Федеральная торговая комиссия объявила о начале расследования в отношении семи компаний, стремясь получить информацию о том, как они разрабатывают персонажей-компаньонов, монетизируют взаимодействие, измеряют и тестируют эффективность своих чат-ботов и т.д. В число этих компаний входят Google, Instagram, Meta, OpenAI, Snap, X и Character Technologies, создатель Character.AI.

Белый дом теперь обладает огромным и потенциально незаконным политическим влиянием на агентство. В марте президент Трамп уволил единственного комиссара-демократа Ребекку Слотер. В июле федеральный судья постановил, что увольнение незаконно, но на прошлой неделе Верховный суд США временно разрешил его.

«Защита детей в Интернете является главным приоритетом для Федеральной торговой комиссии Трампа-Вэнса, равно как и содействие инновациям в важнейших секторах нашей экономики», — заявил председатель Федеральной торговой комиссии Эндрю Фергюсон в пресс-релизе о расследовании.

Сейчас это всего лишь расследование, но этот процесс может (в зависимости от того, насколько публично FTC представит свои выводы) раскрыть внутренние механизмы того, как компании создают своих ИИ-компаньонов, чтобы пользователи возвращались снова и снова.

Сэм Альтман о случаях самоубийства

В тот же день (насыщенный новостями об ИИ) Такер Карлсон опубликовал часовое интервью с генеральным директором OpenAI Сэмом Альтманом. В нём затронуты многие темы: борьба Альтмана с Илоном Маском, военные клиенты OpenAI, теории заговора о смерти бывшего сотрудника, — но также представлены самые откровенные комментарии Альтмана о случаях самоубийств после общения с ИИ.

Альтман говорил о «противоречи между свободой пользователя и конфиденциальностью, а также о защите уязвимых пользователей» в подобных случаях. Но затем он предложил нечто, чего я раньше не слышал.

«Думаю, было бы разумно с нашей стороны заявить, что в случаях, когда молодые люди всерьёз говорят о самоубийстве, и мы не можем связаться с родителями, мы обращаемся в органы власти», — сказал он. «Это было бы изменением».

Так куда же всё это ведёт дальше? Пока очевидно, что — по крайней мере, в случае детей, пострадавших от общения с ИИ, — привычные стратегии компаний больше не сработают. Они больше не могут уклоняться от ответственности, ссылаясь на конфиденциальность, персонализацию или «выбор пользователя». Со стороны государственных законов, регулирующих органов и возмущённой общественности растёт давление с требованием занять более жёсткую позицию.

Но как это будет выглядеть? В политическом плане левые и правые сейчас обращают внимание на вред, который ИИ наносит детям, но их решения различаются. С правой стороны предлагаемое решение совпадает с волной законов о проверке возраста в интернете, принятых уже более чем в 20 штатах. Они призваны защитить детей от контента для взрослых, одновременно защищая «семейные ценности». С левой стороны — это возрождение замороженных амбиций привлечь технологические гиганты к ответственности посредством антимонопольного законодательства и защиты прав потребителей.

Достичь консенсуса по проблеме проще, чем договориться о её решении. В нынешнем состоянии, похоже, мы придём к той же мешанине государственных и местных правил, против которой выступали OpenAI (и многие другие).

Пока что компаниям предстоит решить, где провести черту. Им приходится решать такие вопросы, как: должны ли чат-боты прерывать разговоры, когда пользователи склонны к самоповреждению, или это ухудшит положение некоторых людей? Должны ли они лицензироваться и регулироваться, как психотерапевты, или же их следует рассматривать как развлекательные продукты с предупреждениями? Неопределённость проистекает из фундаментального противоречия: компании создали чат-ботов, которые должны вести себя как заботливые люди, но отложили разработку стандартов и ответственности, которых мы требуем от настоящих лиц, осуществляющих уход. Время истекает.

Эта статья первоначально была опубликована в «Алгоритме», нашей еженедельной рассылке об искусственном интеллекте. Чтобы первыми получать подобные статьи, подпишитесь здесь.

Источник: www.technologyreview.com

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ИИ почти всех обгонит? Прогнозы звучат громко, но есть нюансы…
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.
dummy-img
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
dummy-img
dummy-img
Взаимодействие человека и машины погружается под воду.
Взаимодействие человека и машины погружается под воду.
Image Not Found
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Вкратце Опубликовано: Изображение предоставлено: Thos Robinson/Getty Images для The New York Times (откроется в новом окне) Джули Борт Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.…

Апр 21, 2026
dummy-img

Как почистить виниловые пластинки (2026): пылесос, ультразвук, чистящий раствор, щетка.

Эти щелчки и треск недопустимы. Приведите свою музыку в порядок с помощью этого удобного руководства. Источник: www.wired.com

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых