• Главная
  • Архив рубрики ~Лента новостей~
  • Представитель министерства обороны рассказал о том, как чат-боты с искусственным интеллектом могут быть использованы для принятия решений о выборе целей.
Военные ракеты на зеленом фоне. Стратегические вооружения и безопасность.

Представитель министерства обороны рассказал о том, как чат-боты с искусственным интеллектом могут быть использованы для принятия решений о выборе целей.

Коллаж военных операций США

Стефани Арнетт/MIT Technology Review | ВМС США

По словам представителя Министерства обороны, знакомого с ситуацией, американские военные могут использовать системы генеративного искусственного интеллекта для ранжирования списков целей и выработки рекомендаций — которые будут проверены людьми — о том, какую цель следует атаковать первой. Информация о возможном использовании чат-ботов на основе ИИ появилась на фоне пристального внимания к Пентагону в связи с ударом по иранской школе, расследование которого еще продолжается.

Список возможных целей может быть загружен в систему генеративного искусственного интеллекта, которую Пентагон использует для работы в секретных условиях. Затем, как заявил чиновник, пожелавший остаться анонимным для MIT Technology Review, чтобы обсудить деликатные темы, люди могут попросить систему проанализировать информацию и расставить приоритеты целей, учитывая такие факторы, как текущее местоположение самолетов. После этого люди будут отвечать за проверку и оценку результатов и рекомендаций. Теоретически, для подобных сценариев в будущем могут использоваться модели ChatGPT от OpenAI и Grok от xAI, поскольку обе компании недавно достигли соглашения об использовании своих моделей Пентагоном в секретных условиях.

Официальный представитель охарактеризовал это как пример того, как всё может работать, но не подтвердил и не опроверг, отражает ли это то, как системы искусственного интеллекта используются в настоящее время.

Другие СМИ сообщали, что система Claude от Anthropic была интегрирована в существующие военные системы искусственного интеллекта и использовалась в операциях в Иране и Венесуэле, но комментарии официального лица проливают свет на конкретную роль, которую могут играть чат-боты, особенно в ускорении поиска целей. Они также проливают свет на то, как военные используют две разные технологии искусственного интеллекта, каждая из которых имеет свои ограничения.

По меньшей мере с 2017 года американские военные работают над инициативой по обработке «больших данных» под названием Maven. Она использует более старые типы искусственного интеллекта, в частности компьютерное зрение, для анализа огромных массивов данных и изображений, собранных Пентагоном. Maven может, например, обрабатывать тысячи часов видеоматериалов, снятых беспилотниками, и алгоритмически идентифицировать цели. В отчете Джорджтаунского университета за 2024 год показано, как солдаты используют систему для выбора и проверки целей, что ускоряет процесс получения разрешения на их использование. Солдаты взаимодействуют с Maven через интерфейс с картой поля боя и панелью управления, которая может выделять потенциальные цели одним цветом, а дружественные силы — другим.

Комментарии чиновника позволяют предположить, что генеративный ИИ теперь добавляется в качестве уровня для чат-ботов, предназначенных для общения, — уровня, который военные могут использовать для более быстрого поиска и анализа данных при принятии решений, например, о том, каким целям отдавать приоритет.

Системы генеративного ИИ, подобные тем, что лежат в основе ChatGPT, Claude и Grok, представляют собой принципиально иную технологию по сравнению с ИИ, который в основном лежит в основе Maven. Построенные на основе больших языковых моделей, они гораздо менее проверены в реальных условиях. И если интерфейс Maven заставлял пользователей напрямую изучать и интерпретировать данные на карте, то результаты, полученные с помощью моделей генеративного ИИ, проще в доступе, но сложнее в проверке.

Использование генеративного ИИ для принятия таких решений сокращает время, необходимое для целеуказания, добавил чиновник, не уточнив, насколько можно увеличить скорость, если людям приходится тратить время на перепроверку результатов модели.

Использование военных систем искусственного интеллекта находится под пристальным вниманием общественности после недавнего удара по школе для девочек в Иране, в результате которого погибло более 100 детей. Многие новостные агентства сообщили, что удар был нанесен американской ракетой, хотя Пентагон заявил, что расследование еще продолжается. И хотя Washington Post сообщила, что Claude и Maven участвовали в принятии решений о целях в Иране, пока нет никаких доказательств, объясняющих, какую роль, если таковая имелась, сыграли генеративные системы искусственного интеллекта. В среду New York Times сообщила, что предварительное расследование выявило, что устаревшие данные о целях частично ответственны за удар.

«Компромисс» OpenAI с Пентагоном — это то, чего опасалась компания Anthropic. Читайте далее.

В последние месяцы Пентагон активно наращивает использование ИИ в различных операциях. Еще в декабре он начал предлагать миллионам военнослужащих несекретное использование генеративных моделей ИИ для таких задач, как анализ контрактов или написание презентаций, в рамках проекта GenAI.mil. Однако лишь немногие генеративные модели ИИ были одобрены Пентагоном для секретного использования.

Первым был Claude компании Anthropic, который, помимо использования в Иране, по сообщениям, применялся в операциях по захвату венесуэльского лидера Николаса Мадуро в январе. Однако после недавних разногласий между Пентагоном и Anthropic по поводу того, может ли Anthropic ограничивать использование своего ИИ военными, Министерство обороны признало компанию угрозой для цепочки поставок, а президент Трамп потребовал в социальных сетях, чтобы правительство прекратило использование ее продуктов ИИ в течение шести месяцев. Anthropic оспаривает это решение в суде.

28 февраля компания OpenAI объявила о соглашении с военными об использовании своих технологий в секретных условиях. Компания Илона Маска xAI также заключила соглашение с Пентагоном об использовании своей модели Grok в подобных условиях. OpenAI заявила, что соглашение с Пентагоном сопровождалось ограничениями, хотя практическая эффективность этих ограничений неясна.

Если у вас есть информация об использовании ИИ военными, вы можете безопасно поделиться ею через Signal (имя пользователя jamesodonnell.22).

Источник: www.technologyreview.com

✅ Найденные теги: Выбор Целей, искусственный интеллект, Министерство обороны, новости, Представитель, Принятие Решений, чат-боты

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Больницы изучают возможности преобразования операционной с помощью цифровых технологий | MobiHealthNews
Собственные эксперты OpenAI по вопросам психического здоровья единогласно выступили против «непристойного» запуска ChatGPT.
Человек на сцене с микрофоном, темный фон, дискуссия.
ideipro logotyp
ideipro logotyp
Синие и красные кубы, разлетающиеся от центрального куба, абстрактное изображение 3D.
Графическая схема с цветными фигурами: круги, квадраты, треугольники и пятиугольники на фоне.
Nvidia NemoClaw обеспечивает контроль конфиденциальности и безопасности для автономных агентов OpenClaw.
Беременная женщина танцует в гостиной, в синей одежде.
Image Not Found
Больницы изучают возможности преобразования операционной с помощью цифровых технологий | MobiHealthNews

Больницы изучают возможности преобразования операционной с помощью цифровых технологий | MobiHealthNews

На конференции HIMSS26 участники дискуссии отметили, что операционная представляет собой «черный ящик», который превращается в взаимосвязанную экосистему, где хирургическое видео и данные о процедурах предоставляют новые способы предотвращения осложнений. Операции Слева направо: Викрам Мохан, руководитель глобального направления…

Мар 18, 2026
Собственные эксперты OpenAI по вопросам психического здоровья единогласно выступили против «непристойного» запуска ChatGPT.

Собственные эксперты OpenAI по вопросам психического здоровья единогласно выступили против «непристойного» запуска ChatGPT.

OpenAI проводит грань между «порнографией» в сфере ИИ и порнографией. Эксперты опасаются, что всё это вредно для здоровья. Источник: Bloomberg / Автор | Bloomberg Источник: Bloomberg / Автор | Bloomberg Настройки текста Текст рассказа Размер Маленький Стандартный…

Мар 18, 2026
Человек на сцене с микрофоном, темный фон, дискуссия.

Юридические проблемы Калши накапливаются: в Аризоне впервые предъявлены уголовные обвинения в связи с «незаконным игорным бизнесом».

Источник изображений: TechCrunch Генеральный прокурор Аризоны Крис Мэйес предъявила уголовные обвинения платформе прогнозирования Kalshi за якобы ведение незаконного игорного бизнеса в штате без лицензии и за ставки на выборы. В иске, поданном во вторник в суд округа…

Мар 18, 2026
ideipro logotyp

Обзор AirPods Max 2: что нового и отличается от предшественника?

Премиальные накладные наушники Apple наконец-то получили достойного преемника, но после пяти лет ожидания трудно не задаться вопросом: «И это всё?» Источник: www.wired.com ✅ Найденные теги: AirPods Max 2, Наушники, новости, Обзор, ПредшественникПохожие записиБольницы изучают возможности преобразования операционной…

Мар 18, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых