Image

Гонка за регулирование ИИ спровоцировала противостояние федерального и государственного уровней

Американский флаг, состоящий из символов компьютерного кода
Авторы изображений: Энди Эмель (открывается в новом окне) / Getty Images

Впервые Вашингтон приближается к решению вопроса о регулировании искусственного интеллекта. И разгорается борьба не за технологии, а за то, кто будет осуществлять регулирование.

В отсутствие значимого федерального стандарта в области ИИ, ориентированного на безопасность потребителей, штаты внесли десятки законопроектов, направленных на защиту жителей от вреда, связанного с ИИ, включая законопроект Калифорнии SB-53 о безопасности ИИ и Закон Техаса об ответственном управлении ИИ, который запрещает преднамеренное неправомерное использование систем ИИ.

Технологические гиганты и перспективные стартапы, рожденные в Кремниевой долине, утверждают, что такие законы создают неработоспособную мешанину, которая ставит под угрозу инновации.

«Это замедлит нашу гонку с Китаем», — заявил TechCrunch Джош Власто, соучредитель про-ИИ PAC Leading the Future.

Индустрия и несколько её представителей в Белом доме настаивают на принятии национального стандарта или его отсутствии вообще. В разгар этой борьбы «всё или ничего» появились новые попытки запретить штатам принимать собственные законы об ИИ.

Сообщается, что законодатели Палаты представителей пытаются использовать Закон о национальной обороне (NDAA) для блокирования законов штатов об искусственном интеллекте. В то же время, попавший в сеть проект указа Белого дома также демонстрирует решительную поддержку упреждающих мер штатов по регулированию ИИ.

Масштабный превентивный запрет, лишающий штаты права регулировать ИИ, не пользуется популярностью в Конгрессе, который ранее в этом году подавляющим большинством голосов проголосовал против аналогичного моратория. Законодатели утверждают, что без принятия федерального стандарта блокирование штатов создаст угрозу для потребителей, а технологические компании смогут свободно работать без надзора.

Чтобы создать такой национальный стандарт, конгрессмен Тед Лью (демократ от Калифорнии) и двухпартийная рабочая группа Палаты представителей по вопросам ИИ готовят пакет федеральных законопроектов в области ИИ, охватывающих ряд мер защиты прав потребителей, включая мошенничество, здравоохранение, прозрачность, безопасность детей и риск катастроф. Принятие такого масштабного законопроекта, вероятно, займёт месяцы, если не годы, что подчёркивает, почему нынешняя спешка с ограничением полномочий штатов превратилась в одну из самых спорных тем в политике в области ИИ.

Линия фронта: NDAA и EO

Президент США Дональд Трамп демонстрирует указ об искусственном интеллекте, подписанный им на саммите по искусственному интеллекту «Победа в гонке ИИ» в здании Эндрю Буша.
Трамп демонстрирует указ об искусственном интеллекте, подписанный им 23 июля 2025 года. (Фото: ЭНДРЮ КАБАЛЬЕРО-РЕЙНОЛЬДС / AFP) Источники изображений: ЭНДРЮ КАБАЛЬЕРО-РЕЙНОЛЬДС/AFP / Getty Images

В последние недели активизировались попытки помешать государствам регулировать ИИ.

Палата представителей рассматривает возможность исключения из Закона о национальной обороне (NDAA) положений, запрещающих штатам регулировать ИИ, сообщил Punchbowl News лидер большинства Стив Скалисе (республиканец от Луизианы). Как сообщает Politico, Конгресс, как сообщается, работал над завершением соглашения по оборонному законопроекту до Дня благодарения. Источник, знакомый с ситуацией, сообщил TechCrunch, что переговоры были сосредоточены на сужении сферы действия, чтобы потенциально сохранить полномочия штатов в таких областях, как безопасность детей и прозрачность.

Тем временем, попавший в сеть проект указа Белого дома раскрывает потенциальную стратегию превентивных мер администрации. Указ, который, как сообщается, был приостановлен, предусматривает создание «Рабочей группы по судебным разбирательствам в области ИИ» для оспаривания в суде законов штатов об ИИ, обязывает ведомства оценивать законы штатов, считающиеся «обременительными», и подталкивает Федеральную комиссию по связи и Федеральную торговую комиссию к принятию национальных стандартов, превалирующих над правилами штатов.

В частности, указ предоставит Дэвиду Саксу, главному стратегу Трампа в области искусственного интеллекта и криптовалют, а также соучредителю венчурной компании Craft Ventures, полномочия соруководителя по созданию единой правовой базы. Это позволит Саксу напрямую влиять на политику в области ИИ, что заменит собой традиционные функции Управления по научно-технической политике Белого дома и его главы Майкла Крациоса.

Сакс публично выступал за блокирование государственного регулирования и сохранение федерального надзора на низком уровне, отдавая предпочтение саморегулированию отрасли в целях «максимизации роста».

Лоскутный аргумент

Позиция Сакса отражает точку зрения большей части представителей индустрии искусственного интеллекта. В последние месяцы появилось несколько суперкомитетов политических действий (КП), выступающих за развитие ИИ, которые вкладывают сотни миллионов долларов в местные и региональные выборы, чтобы противостоять кандидатам, поддерживающим регулирование ИИ.

Проект Leading the Future, поддерживаемый Андрессен Горовиц, президентом OpenAI Грегом Брокманом, компанией Perplexity и соучредителем Palantir Джо Лонсдейлом, собрал более 100 миллионов долларов. На этой неделе Leading the Future запустил кампанию с бюджетом в 10 миллионов долларов, призывая Конгресс разработать национальную политику в области ИИ, которая будет иметь приоритет над законами штатов.

«Когда вы пытаетесь стимулировать инновации в технологическом секторе, вы не можете допустить, чтобы все эти законы постоянно появлялись у людей, которые не обязательно обладают техническими знаниями», — сказал Власто в интервью TechCrunch.

Он утверждал, что разрозненные государственные нормы «замедлят нашу гонку с Китаем».

Натан Лимер, исполнительный директор Build American AI, правозащитного подразделения PAC, подтвердил, что группа поддерживает превентивный подход без принятия федеральных мер защиты прав потребителей, связанных с ИИ. Лимер утверждал, что существующие законы, например, о мошенничестве или ответственности за качество продукции, достаточны для предотвращения ущерба, наносимого ИИ. В то время как законы штатов часто направлены на предотвращение проблем до их возникновения, Лимер выступает за более реактивный подход: дать компаниям возможность действовать быстро, а затем решать проблемы в суде.

Нет приоритета без представительства

Алекс Борс выступает на мероприятии в Вашингтоне, округ Колумбия, 17 ноября 2025 года.
Алекс Борс выступает на мероприятии в Вашингтоне, округ Колумбия, 17 ноября 2025 года. Источники изображений: TechCrunch

Алекс Борс, член Ассамблеи штата Нью-Йорк, баллотирующийся в Конгресс, — одна из первых целей движения «Ведущее будущее». Он выступил инициатором законопроекта RAISE, который требует от крупных лабораторий искусственного интеллекта наличия планов безопасности для предотвращения критических случаев.

«Я верю в силу ИИ, и именно поэтому так важно иметь разумное регулирование», — заявил Борс в интервью TechCrunch. «В конечном счёте, ИИ, который победит на рынке, будет надёжным ИИ, а рынок часто недооценивает или не стимулирует инвестиции в безопасность в краткосрочной перспективе».

Борс поддерживает национальную политику в области ИИ, но утверждает, что штаты могут быстрее реагировать на возникающие риски.

И это правда, что штаты двигаются быстрее.

По состоянию на ноябрь 2025 года 38 штатов приняли более 100 законов, связанных с ИИ, в основном направленных против дипфейков, прозрачности и раскрытия информации, а также использования ИИ государством. (Недавнее исследование показало, что 69% этих законов вообще не предъявляют никаких требований к разработчикам ИИ.)

Активность в Конгрессе подтверждает аргумент о более медленном развитии, чем в штатах. Были внесены сотни законопроектов об ИИ, но лишь немногие из них были приняты. С 2015 года конгрессмен Лью внес 67 законопроектов в Комитет Палаты представителей по науке. Только один из них стал законом.

Более 200 законодателей подписали открытое письмо против превентивного механизма в NDAA, утверждая, что «штаты служат лабораториями демократий», которые должны «сохранять гибкость для противостояния новым цифровым вызовам по мере их возникновения». Почти 40 генеральных прокуроров штатов также направили открытое письмо против запрета государственного регулирования ИИ.

Эксперт по кибербезопасности Брюс Шнайер и специалист по анализу данных Натан Э. Сандерс, авторы книги «Переосмысление демократии: как ИИ преобразует нашу политику, правительство и гражданство», утверждают, что жалоба на неоднородность преувеличена.

Они отмечают, что компании, занимающиеся разработкой ИИ, уже соблюдают более строгие правила ЕС, и большинство отраслей находят способ действовать в рамках различных государственных законов. Истинный мотив, по их словам, — стремление избежать ответственности.

Как мог бы выглядеть федеральный стандарт?

Лью готовит масштабный законопроект объёмом более 200 страниц, который он надеется представить в декабре. Он охватывает ряд вопросов, таких как штрафы за мошенничество, защита от дипфейков, защита осведомителей, вычислительные ресурсы для академических кругов, а также обязательное тестирование и раскрытие информации для крупных компаний, занимающихся языковыми моделями.

Последнее положение обяжет лаборатории ИИ тестировать свои модели и публиковать результаты, что большинство сейчас делает добровольно. Лью ещё не внёс законопроект, но, по его словам, он не обязывает федеральные агентства напрямую оценивать модели ИИ. Это отличается от аналогичного законопроекта, внесённого сенаторами Джошем Хоули (республиканец от штата Миссисипи) и Ричардом Блюменталем (демократ от штата Канзас), который требует проведения государственной программы оценки передовых систем ИИ перед их внедрением.

Лью признал, что его законопроект не будет столь строгим, но сказал, что у него больше шансов стать законом.

«Моя цель — добиться принятия закона в этом семестре», — сказал Лью, отметив, что лидер большинства в Палате представителей Скалайс открыто враждебно относится к регулированию ИИ. «Я не пишу законопроект, который написал бы сам, будь я королём. Я пытаюсь написать законопроект, который мог бы принять Палата представителей, контролируемая республиканцами, Сенат и контролируемый республиканцами Белый дом».

Источник: techcrunch.com

✅ Найденные теги: Гонка, новости

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Цветные блоки и линии, символизирующие технологическую сеть или блокчейн.
ideipro logotyp
Текст "MIT 2025 in the Media" на фоне цифровой сетки и световых эффектов.
Диаграмма Венна: пересечение U-REGLE, M-REGLE и GWAS Catalog.
Извлечение документов DPT-2, точность 99.16%, DocVQA, текст под подписью.
Новая открытая система «автоисследований» Андрея Карпати позволяет запускать сотни экспериментов с искусственным интеллектом за ночь, что имеет революционные последствия.
Новорожденный в инкубаторе с фототерапией под синим светом.
Паркетный зал с деловой встречей, люди сидят и слушают спикеров за столом.
Детский рисунок: робот и слова на английском с объектами, включая кролика и гитару.
Image Not Found
Цветные блоки и линии, символизирующие технологическую сеть или блокчейн.

Создание надежной инфраструктуры данных для успешной работы агентов искусственного интеллекта.

В сотрудничестве с SAP В гонке за внедрением и демонстрацией преимуществ ИИ предприятия как никогда быстро развертывают агентные системы ИИ в качестве помощников, ассистентов и автономных исполнителей задач. Согласно ежегодному отчету McKinsey об ИИ, к концу 2025…

Мар 14, 2026
ideipro logotyp

Увеличение длины последовательности — это ещё не всё: эффективная интеграция мультимодальных сигналов для прогнозирования экспрессии генов.

arXiv:2602.21550v2 Тип объявления: замена-кросс Аннотация: Прогнозирование экспрессии генов, то есть предсказание уровней экспрессии мРНК на основе последовательностей ДНК, представляет собой серьезную проблему. Предыдущие работы часто фокусировались на увеличении длины входной последовательности для определения дистальных энхансеров, которые могут…

Мар 14, 2026
Текст "MIT 2025 in the Media" на фоне цифровой сетки и световых эффектов.

MIT в СМИ: обзор 2025 года

Члены сообщества MIT привлекли внимание общественности ключевыми научными достижениями и своими усилиями по решению актуальных проблем. Изображение: Новости MIT «В MIT инновации варьируются от впечатляющих технологий до приземленного творчества», — отметили в Chronicle во время визита в…

Мар 14, 2026
Диаграмма Венна: пересечение U-REGLE, M-REGLE и GWAS Catalog.

Раскрытие ценных генетических данных с помощью мультимодального ИИ на основе M-REGLE

M-REGLE (Multimodal REpresentation learning for Genetic discovery on Low-dimensional Embeddings) — это метод искусственного интеллекта, который одновременно анализирует несколько потоков медицинских данных. Совместное обучение на основе различных типов данных создает более полные представления и значительно повышает вероятность…

Мар 14, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых