
Губернатор Калифорнии Гэвин Ньюсом подписал в понедельник знаменательный законопроект, регулирующий деятельность чат-ботов на базе искусственного интеллекта. Таким образом, штат стал первым в стране, обязывающим операторов чат-ботов на базе искусственного интеллекта внедрять протоколы безопасности для чат-ботов на базе искусственного интеллекта.
Закон SB 243 призван защитить детей и уязвимых пользователей от некоторых негативных последствий использования чат-ботов на базе искусственного интеллекта. Он возлагает на компании — от крупных лабораторий, таких как Meta и OpenAI, до более специализированных стартапов, таких как Character AI и Replika, — юридическую ответственность, если их чат-боты не соответствуют установленным законом стандартам.
Законопроект SB 243 был представлен в январе сенаторами штата Стивом Падиллой и Джошем Беккером и набрал обороты после смерти подростка Адама Рейна, который покончил с собой после серии суицидальных разговоров с чат-ботом OpenAI ChatGPT. Законопроект также является ответом на утечку внутренних документов, которые, как сообщается, свидетельствуют о том, что чат-ботам Meta разрешалось участвовать в «романтичных» и «чувственных» чатах с детьми. Совсем недавно семья из Колорадо подала иск против стартапа Character AI, занимающегося ролевыми играми, после того, как их 13-летняя дочь покончила с собой после серии проблемных и сексуализированных разговоров с чат-ботами компании.
«Новые технологии, такие как чат-боты и социальные сети, могут вдохновлять, обучать и объединять, но без реальных мер предосторожности технологии могут также эксплуатировать, вводить в заблуждение и подвергать опасности наших детей», — заявил Ньюсом. «Мы видели поистине ужасающие и трагические примеры того, как молодые люди страдают от нерегулируемых технологий, и мы не будем стоять в стороне, пока компании продолжают действовать без необходимых ограничений и ответственности. Мы можем продолжать лидировать в области ИИ и технологий, но мы должны делать это ответственно, защищая наших детей на каждом этапе пути. Безопасность наших детей не продаётся».
Закон SB 243 вступит в силу 1 января 2026 года и обяжет компании внедрять определённые функции, такие как проверка возраста и предупреждения в отношении социальных сетей и чат-ботов. Закон также вводит более строгие наказания для тех, кто получает прибыль от незаконных дипфейков, вплоть до штрафа в размере до 250 000 долларов США за каждое правонарушение. Компании также обязаны разработать протоколы для борьбы с самоубийствами и самоповреждением, которые будут переданы в Департамент общественного здравоохранения штата вместе со статистикой о том, как сервис предоставлял пользователям профилактические уведомления кризисных центров.
Согласно законопроекту, платформы также должны чётко указывать, что любое взаимодействие с ними является искусственным, а чат-боты не должны выдавать себя за медицинских работников. Компании обязаны напоминать несовершеннолетним о перерывах и не допускать просмотра ими изображений сексуального характера, создаваемых чат-ботами.
Некоторые компании уже начали внедрять меры защиты, ориентированные на детей. Например, OpenAI недавно начала внедрять родительский контроль, защиту контента и систему обнаружения самоповреждений для детей с помощью ChatGPT. Character AI заявила, что её чат-бот включает предупреждение о том, что все чаты сгенерированы ИИ и являются вымышленными.
Сенатор Падилла заявил TechCrunch, что законопроект является «шагом в правильном направлении» по установлению ограничений для «невероятно мощной технологии».
«Нам нужно действовать быстро, чтобы не упустить возможности, прежде чем они исчезнут», — сказал Падилла. «Я надеюсь, что другие штаты осознают риск. Думаю, многие уже это осознают. Думаю, об этом говорят по всей стране, и я надеюсь, что люди примут меры. Федеральное правительство, конечно же, этого не сделало, и я считаю, что мы обязаны защитить самых уязвимых из нас».
Законопроект SB 243 — второй важный нормативный акт в области искусственного интеллекта, принятый в Калифорнии за последние недели. 29 сентября губернатор Ньюсом подписал закон SB 53, устанавливающий новые требования к прозрачности для крупных компаний, занимающихся разработкой ИИ. Законопроект обязывает крупные лаборатории ИИ, такие как OpenAI, Anthropic, Meta и Google DeepMind, предоставлять прозрачную информацию о протоколах безопасности. Он также обеспечивает защиту сотрудников этих компаний, сообщающих о нарушениях.
Другие штаты, такие как Иллинойс, Невада и Юта, приняли законы, ограничивающие или полностью запрещающие использование чат-ботов на основе искусственного интеллекта в качестве замены лицензированной психиатрической помощи.
TechCrunch обратился за комментариями к Character AI, Meta, OpenAI и Replika.
Статья обновлена комментариями сенатора Падиллы.
Источник: techcrunch.com



























