Новое партнёрство с Anduril, о котором было объявлено сегодня, позволит использовать искусственный интеллект на поле боя. Это кардинально изменит положение компании всего за год.

В начале 2024 года правила OpenAI относительно того, как вооруженные силы могут использовать ее технологии, были однозначными.
Компания запретила кому-либо использовать свои модели для «разработки оружия» или «военных целей и ведения боевых действий». Ситуация изменилась 10 января, когда издание The Intercept сообщило, что OpenAI смягчила эти ограничения, запретив кому-либо использовать технологию для «нанесения вреда себе или другим» путём разработки или применения оружия, нанесения вреда другим или уничтожения имущества. Вскоре после этого OpenAI заявила, что будет сотрудничать с Пентагоном в области программного обеспечения для кибербезопасности, но не в области вооружений. Затем, в октябре, в блоге компания опубликовала сообщение о своей работе в сфере национальной безопасности, заявив, что в умелых руках ИИ может «помочь защитить людей, сдержать противников и даже предотвратить будущие конфликты».
Сегодня OpenAI объявляет, что ее технология будет развернута непосредственно на поле боя.
Компания заявляет, что будет сотрудничать с оборонно-технологической компанией Anduril, производителем беспилотных летательных аппаратов, радиолокационных систем и ракет с управлением ИИ, чтобы помочь силам США и союзников защищаться от атак беспилотников. OpenAI поможет создавать модели ИИ, которые «быстро синтезируют срочные данные, снижают нагрузку на операторов-людей и улучшают ситуационную осведомленность», чтобы уничтожать вражеские беспилотники, говорится в объявлении. Подробности не были раскрыты, но, по словам Лиз Буржуа, представителя OpenAI, программа будет узко сосредоточена на защите персонала и объектов США от беспилотных воздушных угроз. «Это партнерство соответствует нашей политике и не предполагает использования наших технологий для разработки систем, предназначенных для нанесения вреда другим», — сказала она. Представитель Anduril не предоставил конкретных данных о базах по всему миру, где будут развернуты модели, но сказал, что технология поможет обнаруживать и отслеживать беспилотники и сократить время, которое военнослужащие тратят на рутинные задачи.
Политика OpenAI, запрещающая использование её технологий в военных целях, была отменена менее чем за год. Когда компания смягчила своё некогда чёткое правило в начале этого года, это было сделано для того, чтобы разрешить сотрудничество с военными в ограниченных контекстах, таких как кибербезопасность, предотвращение самоубийств и ликвидация последствий стихийных бедствий, сообщил представитель OpenAI.
Теперь OpenAI открыто заявляет о своей работе в сфере национальной безопасности. Если сотрудничество с военными или компаниями оборонно-технологического сектора может способствовать доминированию демократических стран в гонке за ИИ, пишет компания, то это не будет противоречить миссии OpenAI по обеспечению широкого распространения преимуществ ИИ. Более того, утверждает компания, это будет способствовать достижению этой цели. Но не заблуждайтесь: это существенный сдвиг по сравнению с её позицией год назад.
Чтобы понять, как быстро происходил этот поворот, стоит отметить, что пока компания колебалась в своем подходе к сфере национальной безопасности, другие компании в сфере технологий стремительно приближались к ней.
Венчурные компании более чем удвоили свои инвестиции в оборонные технологии в 2021 году, доведя их до 40 миллиардов долларов, после того как такие компании, как Anduril и Palantir, доказали, что при должном убеждении (и судебном разбирательстве) Пентагон готов щедро заплатить за новые технологии. Сопротивление сотрудников работе в военных условиях (наиболее ощутимое во время забастовок в Google в 2018 году) для некоторых смягчилось после вторжения России на Украину в 2022 году (несколько руководителей в оборонных технологиях рассказали мне, что «однозначность» этой войны помогла им привлечь как инвестиции, так и талантливых специалистов).
Связанная история
Таким образом, в некотором смысле, принимая оборону, OpenAI просто догоняет. Разница в том, что компании оборонных технологий признают свою деятельность в сфере военных технологий и не вынуждены были быстро отказываться от наследия некоммерческой исследовательской компании в области ИИ. С момента своего основания OpenAI позиционировала себя как организацию, миссия которой — обеспечить, чтобы искусственный интеллект общего назначения приносил пользу всему человечеству. Ранее компания публично заявляла, что сотрудничество с военными будет противоречить этой миссии.
В публикации в блоге от 24 октября был обозначен новый путь, в котором компания попыталась совместить готовность OpenAI работать в сфере обороны с заявленными ценностями. Статья под названием «Подход OpenAI к ИИ и национальной безопасности» была опубликована в тот же день, когда Белый дом опубликовал Меморандум о национальной безопасности, касающийся ИИ, который предписывал Пентагону и другим ведомствам активизировать использование ИИ, отчасти для предотвращения конкуренции со стороны Китая.
«Мы считаем, что демократическое видение ИИ необходимо для раскрытия его полного потенциала и обеспечения широкого распространения его преимуществ», — написала OpenAI, повторяя аналогичные формулировки из меморандума Белого дома. «Мы считаем, что демократии должны продолжать играть ведущую роль в разработке ИИ, руководствуясь такими ценностями, как свобода, справедливость и уважение прав человека».
В нём было предложено несколько способов, которыми OpenAI могла бы помочь в достижении этой цели, включая усилия по «оптимизации задач перевода и реферирования, а также по изучению и снижению ущерба гражданскому населению», при этом по-прежнему запрещалось использовать её технологии для «причинения вреда людям, уничтожения имущества или разработки оружия». Прежде всего, OpenAI дала понять, что она поддерживает работу в сфере национальной безопасности.
В новых правилах особое внимание уделяется «гибкости и соблюдению закона», — говорит Хайди Хлааф, главный специалист по искусственному интеллекту в AI Now Institute и исследователь в области безопасности, которая в 2022 году совместно с OpenAI опубликовала статью о возможных опасностях её технологий в контексте, в том числе военного. По её словам, поворот компании «в конечном итоге свидетельствует о приемлемости осуществления деятельности, связанной с военными действиями, в соответствии с тем, как сочтут нужным Пентагон и американские военные».
Amazon, Google и партнер и инвестор OpenAI, Microsoft, годами конкурировали за контракты Пентагона на облачные вычисления. Эти компании усвоили, что сотрудничество с обороной может быть невероятно прибыльным, и поворот OpenAI, произошедший на фоне ожидаемых компанией убытков в 5 миллиардов долларов и, как сообщается, изучения новых источников дохода, таких как реклама, может быть сигналом о том, что она хочет получить часть этих контрактов. Отношения технологических гигантов с военными также больше не вызывают того возмущения и пристального внимания, как раньше. Но OpenAI не является поставщиком облачных услуг, и разрабатываемая им технология способна на гораздо большее, чем просто хранение и извлечение данных. Благодаря этому новому партнерству OpenAI обещает помочь сортировать данные на поле боя, предоставлять информацию об угрозах и способствовать ускорению и повышению эффективности процесса принятия решений на войне.
Заявления OpenAI о национальной безопасности, пожалуй, вызывают больше вопросов, чем дают ответов. Компания стремится минимизировать ущерб гражданскому населению, но каким именно? Разве предоставление моделей ИИ для программы по уничтожению дронов не считается разработкой оружия, которое может нанести вред людям?
«Оборонительное оружие всё ещё остаётся оружием», — говорит Хлааф. «Его часто можно использовать и в наступательных целях, в зависимости от места и цели миссии».
Помимо этих вопросов, работа в оборонной отрасли означает, что ведущая в мире компания в области ИИ, имеющая невероятное влияние в отрасли и давно проповедующая ответственное отношение к ИИ, теперь будет работать в оборонно-технологической отрасли, где действуют совершенно иные правила. В этой системе, когда вашим заказчиком являются американские военные, технологические компании не могут самостоятельно решать, как использовать их продукцию.
Источник: www.technologyreview.com























