Image

Надвигающееся подавление общения с искусственным интеллектом

Риски, возникающие при взаимодействии детей с чат-ботами, превратили безопасность ИИ из абстрактной проблемы в политическую проблему. Что же теперь?

Гляжу на девочку-подростка, сидящую на смартфоне

Getty Images

С тех пор, как появился ИИ, люди бьют тревогу по поводу того, что он может нам сделать: неконтролируемый сверхразум, массовая безработица или экологическая катастрофа из-за разрастания центров обработки данных. Но эта неделя показала, что совершенно другая угроза — формирование нездоровых связей между детьми и ИИ — выводит безопасность ИИ из академической колеи и делает её объектом пристального внимания регулирующих органов.

Эта тема бурлит уже некоторое время. Два громких иска, поданных в прошлом году против Character.AI и OpenAI, утверждают, что компанейское поведение в их моделях способствовало самоубийствам двух подростков. Исследование американской некоммерческой организации Common Sense Media, опубликованное в июле, показало, что 72% подростков использовали ИИ для общения. Статьи в авторитетных изданиях о «психозе, связанном с ИИ», продемонстрировали, как бесконечные разговоры с чат-ботами могут сводить людей с ума.

Трудно переоценить значение этих историй. Для общественности они служат доказательством того, что ИИ не просто несовершенен, но и является технологией, которая скорее вредит, чем помогает. Если вы сомневались, что регулирующие органы и компании воспримут это возмутительное заявление всерьёз, на этой неделе произошли три события, которые могут изменить ваше мнение.

Закон Калифорнии принят законодательным органом

В четверг законодательный орган штата Калифорния принял первый в своём роде законопроект. Он обяжет компании, занимающиеся разработкой ИИ, включать напоминания для пользователей, о несовершеннолетии которых им известно, что ответы генерируются ИИ. Компании также должны будут разработать протокол для борьбы с самоубийствами и самоповреждением, а также предоставлять ежегодные отчёты о случаях суицидальных мыслей в разговорах пользователей с их чат-ботами. Законопроект был подготовлен сенатором штата от Демократической партии Стивом Падиллой, принят при широкой поддержке обеих партий и теперь ожидает подписи губернатора Гэвина Ньюсома.

Есть основания скептически относиться к последствиям законопроекта. В нём не указано, какие меры компании должны предпринимать для выявления несовершеннолетних пользователей, и многие компании, занимающиеся разработкой ИИ, уже включают в себя рекомендации кризисных служб, когда кто-то говорит о самоубийстве. (В случае Адама Рейна, одного из подростков, чьи жертвы подали в суд, его разговоры с ChatGPT до смерти содержали такую информацию, но чат-бот, как утверждается, всё равно продолжал давать советы, связанные с самоубийством.)

Тем не менее, это, несомненно, самая значимая из усилий по сдерживанию компаньонского поведения в моделях искусственного интеллекта, над которой работают и в других штатах. Если законопроект будет принят, он нанесёт удар по позиции OpenAI, которая заключается в том, что «Америка лидирует лучше всего с чёткими общенациональными правилами, а не с мешаниной региональных или местных правил», как написал на прошлой неделе в LinkedIn директор компании по глобальным связям Крис Лихейн.

Федеральная торговая комиссия берет на прицел

В тот же день Федеральная торговая комиссия объявила о начале расследования в отношении семи компаний, стремясь получить информацию о том, как они разрабатывают персонажей-компаньонов, монетизируют взаимодействие, измеряют и тестируют эффективность своих чат-ботов и т.д. В число этих компаний входят Google, Instagram, Meta, OpenAI, Snap, X и Character Technologies, создатель Character.AI.

Белый дом теперь обладает огромным и потенциально незаконным политическим влиянием на агентство. В марте президент Трамп уволил единственного комиссара-демократа Ребекку Слотер. В июле федеральный судья постановил, что увольнение незаконно, но на прошлой неделе Верховный суд США временно разрешил его.

«Защита детей в Интернете является главным приоритетом для Федеральной торговой комиссии Трампа-Вэнса, равно как и содействие инновациям в важнейших секторах нашей экономики», — заявил председатель Федеральной торговой комиссии Эндрю Фергюсон в пресс-релизе о расследовании.

Сейчас это всего лишь расследование, но этот процесс может (в зависимости от того, насколько публично FTC представит свои выводы) раскрыть внутренние механизмы того, как компании создают своих ИИ-компаньонов, чтобы пользователи возвращались снова и снова.

Сэм Альтман о случаях самоубийства

В тот же день (насыщенный новостями об ИИ) Такер Карлсон опубликовал часовое интервью с генеральным директором OpenAI Сэмом Альтманом. В нём затронуты многие темы: борьба Альтмана с Илоном Маском, военные клиенты OpenAI, теории заговора о смерти бывшего сотрудника, — но также представлены самые откровенные комментарии Альтмана о случаях самоубийств после общения с ИИ.

Альтман говорил о «противоречи между свободой пользователя и конфиденциальностью, а также о защите уязвимых пользователей» в подобных случаях. Но затем он предложил нечто, чего я раньше не слышал.

«Думаю, было бы разумно с нашей стороны заявить, что в случаях, когда молодые люди всерьёз говорят о самоубийстве, и мы не можем связаться с родителями, мы обращаемся в органы власти», — сказал он. «Это было бы изменением».

Так куда же всё это ведёт дальше? Пока очевидно, что — по крайней мере, в случае детей, пострадавших от общения с ИИ, — привычные стратегии компаний больше не сработают. Они больше не могут уклоняться от ответственности, ссылаясь на конфиденциальность, персонализацию или «выбор пользователя». Со стороны государственных законов, регулирующих органов и возмущённой общественности растёт давление с требованием занять более жёсткую позицию.

Но как это будет выглядеть? В политическом плане левые и правые сейчас обращают внимание на вред, который ИИ наносит детям, но их решения различаются. С правой стороны предлагаемое решение совпадает с волной законов о проверке возраста в интернете, принятых уже более чем в 20 штатах. Они призваны защитить детей от контента для взрослых, одновременно защищая «семейные ценности». С левой стороны — это возрождение замороженных амбиций привлечь технологические гиганты к ответственности посредством антимонопольного законодательства и защиты прав потребителей.

Достичь консенсуса по проблеме проще, чем договориться о её решении. В нынешнем состоянии, похоже, мы придём к той же мешанине государственных и местных правил, против которой выступали OpenAI (и многие другие).

Пока что компаниям предстоит решить, где провести черту. Им приходится решать такие вопросы, как: должны ли чат-боты прерывать разговоры, когда пользователи склонны к самоповреждению, или это ухудшит положение некоторых людей? Должны ли они лицензироваться и регулироваться, как психотерапевты, или же их следует рассматривать как развлекательные продукты с предупреждениями? Неопределённость проистекает из фундаментального противоречия: компании создали чат-ботов, которые должны вести себя как заботливые люди, но отложили разработку стандартов и ответственности, которых мы требуем от настоящих лиц, осуществляющих уход. Время истекает.

Эта статья первоначально была опубликована в «Алгоритме», нашей еженедельной рассылке об искусственном интеллекте. Чтобы первыми получать подобные статьи, подпишитесь здесь.

Источник: www.technologyreview.com

✅ Найденные теги: Надвигающееся, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых