Три человека жестикулируют на фоне фиолетовой графики.

«Компромисс» OpenAI с Пентагоном — это именно то, чего опасалась компания Anthropic.

Элементы коллажа, созданные совместно с Питом Хегсетом, Дареном Амодеи и Сэмом Альтманом.

Стефани Арнетт/MIT Technology Review | Getty Images

28 февраля компания OpenAI объявила о достижении соглашения, которое позволит американским военным использовать ее технологии в секретных условиях. Генеральный директор Сэм Альтман заявил, что переговоры, которые компания начала только после публичного выговора Пентагона компании Anthropic, были «определенно поспешными».

В своих заявлениях OpenAI всячески подчеркивала, что не уступила Пентагону и не позволила ему делать с ее технологиями все, что ему вздумается. Компания опубликовала сообщение в блоге, объясняющее, что соглашение защищает от использования ее технологий для автономного оружия и массового внутреннего наблюдения, а Альтман заявил, что компания не просто приняла те же условия, от которых отказалась Anthropic.

Можно истолковать это так, что OpenAI выиграла и контракт, и моральное превосходство, но, если вдуматься и прочитать юридические формулировки, становится ясно другое: Anthropic придерживалась морального подхода, который принес ей множество сторонников, но потерпел неудачу, в то время как OpenAI придерживалась прагматичного и юридического подхода, который в конечном итоге оказался мягче по отношению к Пентагону.

Пока неясно, сможет ли OpenAI внедрить обещанные меры безопасности в условиях, когда военные в спешке реализуют политизированную стратегию в области ИИ во время ударов по Ирану, или же сделка будет воспринята как достаточно выгодная сотрудниками, которые хотели, чтобы компания заняла более жесткую позицию. Балансировать на этом грани будет непросто. (OpenAI не сразу ответила на запросы о предоставлении дополнительной информации о соглашении.)

Кампания «QuitGPT» призывает людей отменить свои подписки на ChatGPT. Читайте далее.

Но дьявол кроется и в деталях. По словам Альтмана, причина, по которой OpenAI смогла заключить сделку, в отличие от Anthropic, заключалась не столько в ограничениях, сколько в подходе. «Anthropic, похоже, больше сосредоточилась на конкретных запретах в контракте, чем на ссылках на применимые законы, что нас устраивало», — написал он.

Компания OpenAI заявляет, что одним из оснований для ее готовности сотрудничать с Пентагоном является простое предположение, что правительство не будет нарушать закон. Компания, которая поделилась ограниченным фрагментом своего контракта, ссылается на ряд законов и правил, касающихся автономного оружия и наблюдения. Они варьируются от конкретных директив Пентагона от 2023 года об автономном оружии (которая не запрещает его, но содержит руководящие принципы его проектирования и тестирования) до общих положений Четвертой поправки к Конституции США, которая поддерживает защиту американцев от массового наблюдения.

Однако опубликованный отрывок «не наделяет OpenAI самостоятельным правом, подобным праву Anthropic, запрещать использование технологий государством в иных законных целях», — написала Джессика Тилипман, заместитель декана по изучению права государственных закупок в юридической школе Университета Джорджа Вашингтона. В нем просто говорится, что Пентагон не может использовать технологии OpenAI для нарушения каких-либо из этих законов и правил в их нынешнем виде.

Вся причина, по которой Anthropic завоевала так много сторонников в своей борьбе — включая некоторых сотрудников OpenAI — заключается в том, что они не считают эти правила достаточно эффективными для предотвращения создания автономного оружия с поддержкой ИИ или массового наблюдения. А предположение о том, что федеральные агентства не будут нарушать закон, мало что значит для тех, кто помнит, что методы слежки, разоблаченные Эдвардом Сноуденом, были признаны законными внутренними органами и признаны незаконными только после затяжных боев (не говоря уже о многих методах слежки, разрешенных действующим законодательством, которые ИИ мог бы расширить). В этом отношении мы, по сути, вернулись к тому, с чего начали: позволив Пентагону использовать свой ИИ в любых законных целях.

Как вчера написал руководитель отдела партнерских отношений в сфере национальной безопасности OpenAI, можно сказать, что если вы считаете, что правительство не будет соблюдать закон, то вам также не следует быть уверенным в том, что оно будет соблюдать «красные линии», предложенные Anthropic. Но это не аргумент против их установления. Несовершенство правоприменения не делает ограничения бессмысленными, и условия контрактов по-прежнему влияют на поведение, надзор и политические последствия.

OpenAI заявляет о наличии второй линии защиты. Компания утверждает, что сохраняет контроль над правилами безопасности, регулирующими работу ее моделей, и не предоставит военным версию своего ИИ, лишенную этих мер безопасности. «Мы можем внедрить наши «красные линии» — никакого массового наблюдения и никакого управления системами вооружения без участия человека — непосредственно в поведение модели», — написал Боаз Барак, сотрудник OpenAI, которого Альтман уполномочил высказаться по вопросу о X.

Однако компания не уточняет, чем ее правила безопасности для военных отличаются от правил для обычных пользователей. Кроме того, обеспечение соблюдения этих правил никогда не бывает идеальным, и это особенно маловероятно, учитывая, что OpenAI впервые внедряет эти меры защиты в секретной среде, и ожидается, что это произойдет всего через шесть месяцев.

Moltbook был вершиной театрального искусства с использованием ИИ. Читайте далее.

За всем этим скрывается еще один вопрос: должны ли технологические компании запрещать то, что законно, но что они считают морально неприемлемым? Правительство, безусловно, сочло готовность Anthropic играть эту роль неприемлемой. В пятницу вечером, за восемь часов до начала ударов США по Тегерану, министр обороны Пит Хегсет выступил с резкими заявлениями в адрес X. «Anthropic продемонстрировала мастер-класс высокомерия и предательства», — написал он, повторив приказ президента Трампа правительству прекратить сотрудничество с компанией, занимающейся искусственным интеллектом, после того, как Anthropic попыталась предотвратить использование своей модели Claude для автономного оружия или массового внутреннего наблюдения. «Министерство обороны должно иметь полный, неограниченный доступ к моделям Anthropic для любых ЗАКОННЫХ целей», — написал Хегсет.

Но пока полный текст контракта OpenAI не раскроет больше подробностей, трудно не рассматривать компанию как находящуюся на идеологических качелях, обещающую, что у нее есть рычаги влияния, которые она с гордостью будет использовать для того, чтобы делать то, что считает правильным, в то же время подчиняясь закону как главной гарантии того, что Пентагон может делать со своими технологиями.

Здесь следует обратить внимание на три момента. Во-первых, будет ли эта позиция достаточно хороша для самых важных сотрудников OpenAI. Учитывая, сколько средств компании, занимающиеся ИИ, тратят на таланты, вполне возможно, что некоторые в OpenAI видят в оправдании Альтмана непростительный компромисс.

Во-вторых, Хегсет пообещал провести против Anthropic кампанию «выжженной земли». Он не ограничился простым расторжением государственного контракта с компанией, а объявил, что она будет классифицирована как риск для цепочки поставок, и что «ни один подрядчик, поставщик или партнер, ведущий бизнес с вооруженными силами США, не может осуществлять какую-либо коммерческую деятельность с Anthropic». Ведутся серьезные дебаты о том, юридически ли возможен этот смертельный удар, и Anthropic заявила, что подаст в суд, если угроза будет реализована. OpenAI также выступила против этого шага.

Наконец, как Пентагон заменит модель Клода — единственную модель ИИ, активно используемую в секретных операциях, в том числе в Венесуэле, — в условиях эскалации ударов по Ирану? Хегсет предоставил ведомству шесть месяцев на это, в течение которых военные будут поэтапно внедрять модели OpenAI, а также модели xAI Илона Маска.

Однако, по сообщениям, Клод был использован в ударах по Ирану через несколько часов после введения запрета, что говорит о том, что поэтапный отказ от него будет отнюдь не простым делом. Даже если многомесячная вражда между Anthropic и Пентагоном закончилась (в чем я сомневаюсь), мы сейчас видим, как план Пентагона по ускорению развития ИИ оказывает давление на компании, заставляя их отказаться от ранее проведенных ими границ, причем новая напряженность на Ближнем Востоке становится основным полигоном для испытаний.

Если у вас есть информация о том, как развиваются события, свяжитесь со мной через Signal (имя пользователя: jamesodonnell.22).

Источник: www.technologyreview.com

✅ Найденные теги: Anthropic, OpenAI, Компромисс, новости, Пентагон

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Красные марсианские ландшафты с серыми тропинками, напоминающими поверхность Марса.
Японский макак сидит на ветке в снегу, покрытый снежинками.
Теплица с орхидеями: ряды цветущих растений под искусственным освещением.
Интерфейс пользовательских настроек Gemini на смартфоне и компьютере.
Скриншот ответа ChatGPT о вероятности начала Третьей мировой войны до 2030 года.
Два робота Lenovo с черными корпусами и светящейся панелью на светло-зеленом фоне.
Программа редактирования видео с изображением мультяшной белки на экране.
dummy-img
Деревянные 3D-структуры, разные формы: плоские, изогнутые, оранжевые и синие детали.
Image Not Found
Теплица с орхидеями: ряды цветущих растений под искусственным освещением.

Анонс программы «Чудо техники» на 8 марта 2026

В новом выпуске программы «Чудо техники» с Сергеем Малозёмовым»: Как в России наладили первое технологичное производство орхидей, и когда подешевеют эти цветы? Настольные игры 21 века! Как их изменили технологии? В рубрике «Чудо-товары» — электронож для чистки…

Мар 6, 2026
dummy-img

ИИ-помощник на кухне: Gambit Robotics

Gambit Robotics — это «умное» кухонное устройство с искусственным интеллектом, которое нужно для помощи в приготовлении блюд: следить за процессом в реальном времени и подсказывать, что делать на каждом этапе готовки.  ИИ-помощник монтируется над плитой и использует…

Мар 6, 2026
Деревянные 3D-структуры, разные формы: плоские, изогнутые, оранжевые и синие детали.

Просто потяните за веревочку, чтобы превратить эти узоры из плиток в полезные трехмерные конструкции.

Вдохновленная японским искусством киригами, команда из Массачусетского технологического института разработала технологию, позволяющую превращать плоские панели в медицинские приборы, жилые модули и другие объекты без использования инструментов. ПРЕДОСТАВЛЕНО ИССЛЕДОВАТЕЛЯМИ Исследователи из Массачусетского технологического института разработали новый метод проектирования…

Мар 6, 2026
Женщина в лаборатории рядом с научным оборудованием.

«Скрытое» состояние впервые использовали для переключения магнитного материала при комнатной температуре

Автор исследования — младший научный сотрудник Анна Кузикова в лаборатории физики ферроиков ФТИ имени А.Ф. Иоффе РАН © Александра Калашникова. Ученые нашли быстрый способ управлять магнитными свойствами материала при комнатной температуре с помощью лазера, чтобы усовершенствовать жесткие…

Мар 6, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых