
Как стало известно изданию MIT Technology Review, Пентагон обсуждает планы по созданию защищенных сред для компаний, занимающихся генеративным искусственным интеллектом, чтобы они могли обучать версии своих моделей, предназначенные для военных целей, на секретных данных.
Модели искусственного интеллекта, такие как Claude от Anthropic, уже используются для ответа на вопросы в условиях секретности; среди примеров применения — анализ целей в Иране. Однако разрешение моделям обучаться на секретных данных стало бы новым направлением, представляющим уникальные риски для безопасности. Это означало бы, что конфиденциальная информация, такая как отчеты о наблюдении или оценки боевых действий, могла бы быть внедрена в сами модели, и это привело бы к более тесному контакту компаний, занимающихся искусственным интеллектом, с секретными данными, чем раньше.
Как сообщил изданию MIT Technology Review представитель Министерства обороны США на условиях анонимности, ожидается, что обучение моделей ИИ на секретных данных сделает их более точными и эффективными в решении определенных задач. Эта новость появилась на фоне высокого спроса на более мощные модели: Пентагон заключил соглашения с OpenAI и xAI Илона Маска об использовании их моделей в секретных условиях и реализует новую программу по превращению в «боевые силы, ориентированные на ИИ», в условиях эскалации конфликта с Ираном. (На момент публикации Пентагон не комментировал свои планы по обучению ИИ.)
По словам двух источников, знакомых с тем, как работают подобные операции, обучение будет проводиться в защищенном центре обработки данных, аккредитованном для размещения секретных правительственных проектов, где копия модели ИИ будет сопоставлена с секретными данными. Хотя Министерство обороны останется владельцем данных, сотрудники компаний, занимающихся ИИ, в редких случаях могут получить доступ к данным, если у них есть соответствующий допуск к секретной информации, сообщил чиновник.
Однако, прежде чем разрешить использование этой новой системы обучения, заявил чиновник, Пентагон намерен оценить точность и эффективность моделей, обученных на несекретных данных, таких как коммерчески доступные спутниковые снимки.
Военные давно используют модели компьютерного зрения, более старую форму ИИ, для идентификации объектов на изображениях и видеоматериалах, полученных с беспилотников и самолетов, а федеральные агентства заключают контракты с компаниями на обучение моделей ИИ на таком контенте. Компании, разрабатывающие большие языковые модели (LLM) и чат-боты, создали версии своих моделей, оптимизированные для работы в государственных структурах, такие как Claude Gov от Anthropic, которые предназначены для работы с большим количеством языков и в защищенных средах. Но комментарии чиновника являются первым свидетельством того, что компании, разрабатывающие LLM, такие как OpenAI и xAI, могут обучать версии своих моделей, предназначенные для работы в государственных структурах, непосредственно на секретных данных.
Аалок Мехта, директор Центра ИИ им. Вадхвани при Центре стратегических и международных исследований, ранее возглавлявший работу по разработке политики в области ИИ в Google и OpenAI, говорит, что обучение на секретных данных, а не просто ответы на вопросы о них, создаст новые риски.
Связанная статья
По его словам, самая большая проблема заключается в том, что секретная информация, на которой обучаются эти модели, может стать доступной любому, кто использует эту модель. Это стало бы проблемой, если бы множество различных военных ведомств, каждое со своим уровнем секретности и потребностями в информации, использовали один и тот же ИИ.
«Представьте, например, что модель, имеющая доступ к какой-либо конфиденциальной информации, полученной от агентов, — например, к имени агента, — сливает эту информацию в подразделение Министерства обороны, которому не положено иметь к ней доступ», — говорит Мехта. Это может создать угрозу безопасности для агента, которую трудно полностью предотвратить, если конкретная модель используется более чем одной группой в вооруженных силах.
Однако, по словам Мехты, скрыть информацию от внешнего мира не так уж сложно: «Если все правильно настроить, риск того, что эти данные появятся в общем интернете или попадут в OpenAI, будет минимальным». У правительства уже есть некоторая необходимая инфраструктура; гигант в сфере безопасности Palantir выиграл крупные контракты на создание защищенной среды, через которую чиновники могут задавать моделям ИИ вопросы по секретным темам, не отправляя информацию обратно в компании, занимающиеся ИИ. Но использование этих систем для обучения по-прежнему остается новой проблемой.
Пентагон, подстегнутый меморандумом министра обороны Пита Хегсета, изданным в январе, спешит внедрить искусственный интеллект в свою работу. Он используется в боевых действиях, где генеративный ИИ ранжирует списки целей и рекомендует, какие из них следует атаковать в первую очередь, а также в административных целях, таких как составление контрактов и отчетов.
По словам Мехты, существует множество задач, которые в настоящее время выполняются аналитиками-людьми, и для выполнения этих задач военные могли бы захотеть обучить передовые модели искусственного интеллекта. Для этого им потребуется доступ к секретным данным. Это может включать в себя обучение распознаванию тонких деталей на изображении так, как это делает аналитик, или установление связи между новой информацией и историческим контекстом. Секретные данные могут быть получены из невообразимых объемов текста, аудио, изображений и видео на многих языках, которые собирают разведывательные службы.
«Очень сложно сказать, для каких именно военных задач потребуется обучение моделей ИИ на таких данных», — предупреждает Мехта, — «потому что у Министерства обороны, очевидно, много стимулов сохранять эту информацию в тайне, и они не хотят, чтобы другие страны знали, какими именно возможностями мы обладаем в этой области».
Если у вас есть информация об использовании ИИ военными, вы можете безопасно поделиться ею через Signal (имя пользователя jamesodonnell.22).
Источник: www.technologyreview.com





















