Риски, возникающие при взаимодействии детей с чат-ботами, превратили безопасность ИИ из абстрактной проблемы в политическую проблему. Что же теперь?

С тех пор, как появился ИИ, люди бьют тревогу по поводу того, что он может нам сделать: неконтролируемый сверхразум, массовая безработица или экологическая катастрофа из-за разрастания центров обработки данных. Но эта неделя показала, что совершенно другая угроза — формирование нездоровых связей между детьми и ИИ — выводит безопасность ИИ из академической колеи и делает её объектом пристального внимания регулирующих органов.
Эта тема бурлит уже некоторое время. Два громких иска, поданных в прошлом году против Character.AI и OpenAI, утверждают, что компанейское поведение в их моделях способствовало самоубийствам двух подростков. Исследование американской некоммерческой организации Common Sense Media, опубликованное в июле, показало, что 72% подростков использовали ИИ для общения. Статьи в авторитетных изданиях о «психозе, связанном с ИИ», продемонстрировали, как бесконечные разговоры с чат-ботами могут сводить людей с ума.
Трудно переоценить значение этих историй. Для общественности они служат доказательством того, что ИИ не просто несовершенен, но и является технологией, которая скорее вредит, чем помогает. Если вы сомневались, что регулирующие органы и компании воспримут это возмутительное заявление всерьёз, на этой неделе произошли три события, которые могут изменить ваше мнение.
Закон Калифорнии принят законодательным органом
В четверг законодательный орган штата Калифорния принял первый в своём роде законопроект. Он обяжет компании, занимающиеся разработкой ИИ, включать напоминания для пользователей, о несовершеннолетии которых им известно, что ответы генерируются ИИ. Компании также должны будут разработать протокол для борьбы с самоубийствами и самоповреждением, а также предоставлять ежегодные отчёты о случаях суицидальных мыслей в разговорах пользователей с их чат-ботами. Законопроект был подготовлен сенатором штата от Демократической партии Стивом Падиллой, принят при широкой поддержке обеих партий и теперь ожидает подписи губернатора Гэвина Ньюсома.
Есть основания скептически относиться к последствиям законопроекта. В нём не указано, какие меры компании должны предпринимать для выявления несовершеннолетних пользователей, и многие компании, занимающиеся разработкой ИИ, уже включают в себя рекомендации кризисных служб, когда кто-то говорит о самоубийстве. (В случае Адама Рейна, одного из подростков, чьи жертвы подали в суд, его разговоры с ChatGPT до смерти содержали такую информацию, но чат-бот, как утверждается, всё равно продолжал давать советы, связанные с самоубийством.)
Тем не менее, это, несомненно, самая значимая из усилий по сдерживанию компаньонского поведения в моделях искусственного интеллекта, над которой работают и в других штатах. Если законопроект будет принят, он нанесёт удар по позиции OpenAI, которая заключается в том, что «Америка лидирует лучше всего с чёткими общенациональными правилами, а не с мешаниной региональных или местных правил», как написал на прошлой неделе в LinkedIn директор компании по глобальным связям Крис Лихейн.
Федеральная торговая комиссия берет на прицел
В тот же день Федеральная торговая комиссия объявила о начале расследования в отношении семи компаний, стремясь получить информацию о том, как они разрабатывают персонажей-компаньонов, монетизируют взаимодействие, измеряют и тестируют эффективность своих чат-ботов и т.д. В число этих компаний входят Google, Instagram, Meta, OpenAI, Snap, X и Character Technologies, создатель Character.AI.
Белый дом теперь обладает огромным и потенциально незаконным политическим влиянием на агентство. В марте президент Трамп уволил единственного комиссара-демократа Ребекку Слотер. В июле федеральный судья постановил, что увольнение незаконно, но на прошлой неделе Верховный суд США временно разрешил его.
«Защита детей в Интернете является главным приоритетом для Федеральной торговой комиссии Трампа-Вэнса, равно как и содействие инновациям в важнейших секторах нашей экономики», — заявил председатель Федеральной торговой комиссии Эндрю Фергюсон в пресс-релизе о расследовании.
Сейчас это всего лишь расследование, но этот процесс может (в зависимости от того, насколько публично FTC представит свои выводы) раскрыть внутренние механизмы того, как компании создают своих ИИ-компаньонов, чтобы пользователи возвращались снова и снова.
Сэм Альтман о случаях самоубийства
В тот же день (насыщенный новостями об ИИ) Такер Карлсон опубликовал часовое интервью с генеральным директором OpenAI Сэмом Альтманом. В нём затронуты многие темы: борьба Альтмана с Илоном Маском, военные клиенты OpenAI, теории заговора о смерти бывшего сотрудника, — но также представлены самые откровенные комментарии Альтмана о случаях самоубийств после общения с ИИ.
Альтман говорил о «противоречи между свободой пользователя и конфиденциальностью, а также о защите уязвимых пользователей» в подобных случаях. Но затем он предложил нечто, чего я раньше не слышал.
«Думаю, было бы разумно с нашей стороны заявить, что в случаях, когда молодые люди всерьёз говорят о самоубийстве, и мы не можем связаться с родителями, мы обращаемся в органы власти», — сказал он. «Это было бы изменением».
Так куда же всё это ведёт дальше? Пока очевидно, что — по крайней мере, в случае детей, пострадавших от общения с ИИ, — привычные стратегии компаний больше не сработают. Они больше не могут уклоняться от ответственности, ссылаясь на конфиденциальность, персонализацию или «выбор пользователя». Со стороны государственных законов, регулирующих органов и возмущённой общественности растёт давление с требованием занять более жёсткую позицию.
Но как это будет выглядеть? В политическом плане левые и правые сейчас обращают внимание на вред, который ИИ наносит детям, но их решения различаются. С правой стороны предлагаемое решение совпадает с волной законов о проверке возраста в интернете, принятых уже более чем в 20 штатах. Они призваны защитить детей от контента для взрослых, одновременно защищая «семейные ценности». С левой стороны — это возрождение замороженных амбиций привлечь технологические гиганты к ответственности посредством антимонопольного законодательства и защиты прав потребителей.
Достичь консенсуса по проблеме проще, чем договориться о её решении. В нынешнем состоянии, похоже, мы придём к той же мешанине государственных и местных правил, против которой выступали OpenAI (и многие другие).
Пока что компаниям предстоит решить, где провести черту. Им приходится решать такие вопросы, как: должны ли чат-боты прерывать разговоры, когда пользователи склонны к самоповреждению, или это ухудшит положение некоторых людей? Должны ли они лицензироваться и регулироваться, как психотерапевты, или же их следует рассматривать как развлекательные продукты с предупреждениями? Неопределённость проистекает из фундаментального противоречия: компании создали чат-ботов, которые должны вести себя как заботливые люди, но отложили разработку стандартов и ответственности, которых мы требуем от настоящих лиц, осуществляющих уход. Время истекает.
Эта статья первоначально была опубликована в «Алгоритме», нашей еженедельной рассылке об искусственном интеллекте. Чтобы первыми получать подобные статьи, подпишитесь здесь.
Источник: www.technologyreview.com



























