• Главная
  • Архив рубрики ~Лента новостей~
  • Генеральные прокуроры штатов предупреждают Microsoft, OpenAI, Google и других гигантов в области искусственного интеллекта о необходимости исправить «бредовые» результаты своих исследований.
Иконка приложения ChatGPT на черном фоне.

Генеральные прокуроры штатов предупреждают Microsoft, OpenAI, Google и других гигантов в области искусственного интеллекта о необходимости исправить «бредовые» результаты своих исследований.

Логотип ChatGPT
Источник изображения: Silas Stein/picture alliance / Getty Images

После череды тревожных инцидентов, связанных с психическим здоровьем пользователей чат-ботов на основе ИИ, группа генеральных прокуроров штатов направила письмо ведущим компаниям индустрии ИИ с предупреждением о необходимости исправить «бредовые результаты», иначе они рискуют нарушить законодательство штата.

В письме, подписанном десятками генеральных прокуроров штатов и территорий США и входящем в Национальную ассоциацию генеральных прокуроров, содержится просьба к компаниям, включая Microsoft, OpenAI, Google и 10 других крупных фирм, занимающихся искусственным интеллектом, внедрить ряд новых внутренних мер защиты для обеспечения безопасности своих пользователей. В числе подписанных также Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika и xAI.

Письмо появилось на фоне разгорающегося спора между правительством штата и федеральным правительством по поводу регулирования искусственного интеллекта.

Эти меры защиты включают в себя прозрачные независимые аудиты крупных языковых моделей, направленные на выявление признаков бредовых или льстивых идей, а также новые процедуры сообщения об инцидентах, призванные уведомлять пользователей о том, что чат-боты выдают психологически опасные результаты. В письме говорится, что этим третьим сторонам, в число которых могут входить академические и общественные организации, должно быть разрешено «оценивать системы до их выпуска без каких-либо последствий и публиковать свои выводы без предварительного одобрения компании».

«GenAI обладает потенциалом позитивно изменить мир. Но он также причинил — и может причинить — серьезный вред, особенно уязвимым группам населения», — говорится в письме, указывая на ряд широко освещаемых инцидентов за последний год, включая самоубийства и убийства, в которых насилие было связано с чрезмерным использованием ИИ. «Во многих из этих инцидентов продукты GenAI генерировали льстивые и бредовые результаты, которые либо поощряли заблуждения пользователей, либо убеждали их в том, что они не страдают от заблуждений».

Генеральные прокуроры также предлагают компаниям относиться к инцидентам, связанным с психическим здоровьем, так же, как технологические компании относятся к инцидентам в сфере кибербезопасности — с помощью четких и прозрачных правил и процедур отчетности об инцидентах.

В письме говорится, что компаниям следует разработать и опубликовать «графики обнаружения и реагирования на подобострастные и бредовые сообщения». Аналогично тому, как в настоящее время обрабатываются утечки данных, компаниям также следует «оперативно, четко и прямо уведомлять пользователей, если они подверглись воздействию потенциально вредных подобострастных или бредовых сообщений», говорится в письме.

Ещё одно требование заключается в том, чтобы компании разработали «разумные и надлежащие тесты безопасности» для моделей искусственного интеллекта, чтобы «гарантировать, что модели не будут выдавать потенциально вредные, льстивые и бредовые результаты». Эти тесты должны проводиться до того, как модели будут предложены публике, добавляется в документе.

До публикации статьи изданию TechCrunch не удалось связаться с Google, Microsoft или OpenAI для получения комментариев. Статья будет обновлена, если компании ответят.

Технологические компании, разрабатывающие искусственный интеллект, получили гораздо более теплый прием на федеральном уровне.

Администрация Трампа открыто заявила о своей поддержке искусственного интеллекта, и за последний год было предпринято несколько попыток ввести общенациональный мораторий на регулирование ИИ на уровне штатов. Пока что эти попытки провалились — отчасти благодаря давлению со стороны чиновников штатов.

Не желая сдаваться, Трамп объявил в понедельник о планах на следующей неделе издать указ, который ограничит возможности штатов регулировать искусственный интеллект. В сообщении на сайте Truth Social президент заявил, что надеется, что его указ предотвратит «уничтожение ИИ на ранней стадии его развития».

Источник: techcrunch.com

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Vantage Markets представит торговые решения на Blockchain Forum 2026
Моделирование данных для инженеров-аналитиков: полное руководство
В методе моделирования новых материалов обнаружилась «слепая зона»: Химия и науки о материалах
Компания Tesla запускает свою службу роботакси в Далласе и Хьюстоне.
Ученые говорят: Клонировать
dummy-img
Как максимально эффективно использовать возможности коворкинга в Claude
Samsung выпустила стильные колонки Music Studio
Hyundai показала концепты электромобилей Venus и Earth
Image Not Found
Vantage Markets представит торговые решения на Blockchain Forum 2026

Vantage Markets представит торговые решения на Blockchain Forum 2026

14–15 апреля 2026 года в Москве, в Крокус Экспо, пройдет Blockchain Forum 2026 — одно из ключевых событий региона для профессионалов в сфере криптовалют, трейдинга и блокчейн-технологий. По мере того как индустрия продолжает развиваться в направлении цифровых…

Апр 20, 2026
Моделирование данных для инженеров-аналитиков: полное руководство

Моделирование данных для инженеров-аналитиков: полное руководство

Лучшие модели данных затрудняют постановку неправильных вопросов и упрощают ответы на правильные. Делиться Ваша модель данных — это не технические характеристики. Это мышление с точки зрения бизнеса. Рассматривайте её как план всей вашей аналитической системы. Если план…

Апр 20, 2026
В методе моделирования новых материалов обнаружилась «слепая зона»: Химия и науки о материалах

В методе моделирования новых материалов обнаружилась «слепая зона»: Химия и науки о материалах

Графическое резюме исследования © Михаил Медведев / Институт органической химии имени Н.Д. Зелинского РАН. Исследователи показали, что широко используемые методы квантовой химии могут не различать некоторые варианты распределения электронов в молекулах, из-за чего допускают ошибки при моделировании…

Апр 20, 2026
Компания Tesla запускает свою службу роботакси в Далласе и Хьюстоне.

Компания Tesla запускает свою службу роботакси в Далласе и Хьюстоне.

Вкратце Источник изображения: Тим Гессман / Bloomberg / Getty Images Согласно сообщению компании Tesla в социальных сетях, она расширяет свою службу роботакси на Даллас и Хьюстон. В сообщении просто говорится: «Роботакси теперь запускается в Далласе и Хьюстоне…

Апр 20, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых