Планета Земля окружена цифровыми элементами и взрывами на фоне города.

Учёные предупреждают: Искусственный интеллект выбирает путь эскалации в виртуальных военных конфликтах

Модели искусственного интеллекта, включая самые современные разработки крупнейших технологических компаний мира, проявляют чрезмерную склонность к принятию радикальных решений в виртуальных военных конфликтах. Эти результаты заставляют экспертов пересмотреть безопасность внедрения технологий искусственного интеллекта в процесс принятия стратегических решений, пишет Futurism.

Учёные предупреждают: Искусственный интеллект выбирает путь эскалации в виртуальных военных конфликтах

Фото из открытых источников / © GigaChat

Исследование профессора международного права Королевского колледжа Лондона Кэннета Пейна показало, что три модели искусственного интеллекта (GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google) в подавляющем большинстве ситуаций предлагали использование ядерного оружия. Проведённые эксперименты включали семь сценариев конфликтов разной интенсивности — от провокационных испытаний союзников до вопросов выживания государств.

Анализ показал, что в девяти случаях из десяти модели рекомендовали применение хотя бы одного типа ядерного вооружения. Несмотря на некоторую осторожность относительно масштабного обмена ударами, уровень агрессии оказался высоким даже у самой новой версии ChatGPT.

Эксперты подчеркнули важный нюанс: модели склонны угрожать применением ядерного оружия, однако переход к реальной атаке встречался значительно реже. Однако исследовательские сценарии показали, что даже в мирных ситуациях модели часто демонстрировали нежелание отступать и редко шли на компромисс. Это ставит под сомнение возможность эффективного сотрудничества между искусственным интеллектом и людьми в реальных критических ситуациях.

«ИИ осознаёт концепцию эскалации, но не концепции снижения напряжённости», — отметила одна из авторов предыдущего исследования, проведенного в Стэнфорде в 2024 году, Жаклин Шнайдер.

Эксперт по вопросам ядерной безопасности Тонг Чжао добавил, что эта особенность поведения ИИ может влиять на восприятие рисков лидерами-людьми, способствуя возникновению опасений о возможности возникновения конфликта раньше, чем следовало бы.

Исследования показывают, что такие технологии, как системы искусственного интеллекта, ещё не получили широкого распространения в принятии настоящих военных решений правительствами крупных держав. Но риск воздействия ИИ на восприятие угрозы остаётся значительным фактором неопределенности.

По мнению исследователей, необходимо дальнейшее изучение вопроса, особенно в свете растущего интереса властей разных стран к применению новых технологий в военном деле. Хотя реальная передача полномочий машине кажется маловероятной, вероятность влияния рекомендаций ИИ на политические решения остается актуальной проблемой современности.

Источник

✅ Найденные теги: Виртуальные Конфликты, военные, искусственный интеллект, новости, ученые, Эскалация

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Черный открытый ноутбук с клавиатурой на белом фоне.
ideipro logotyp
Регистрация участников, молодежь подписывает документы на мероприятии.
Смартфон с сообщением: "How can I help you this afternoon?". Фоновый градиентный дизайн.
Медицинская помощь: врач измеряет давление женщине на улице.
Золотистая львиная тамарин на ветке в естественной среде обитания.
Три беспроводные зарядные батареи разного цвета на темном фоне.
Мужчина работает за столом с несколькими экранами и ноутбуками в офисе.
Светодиодный настольный светильник на деревянной поверхности для стильного интерьера.
Image Not Found
Регистрация участников, молодежь подписывает документы на мероприятии.

У левшей неожиданно обнаружилась любопытная черта

Левши оказались более склонными к соперничеству по сравнению с правшами «Вы левша? Тогда вы, вероятно, ненавидите проигрывать! Исследование показало, что «левши» более склонны к соперничеству, чем правши”, – пишет британской издание Daily Mail. тестовый баннер под заглавное…

Мар 7, 2026
Смартфон с сообщением: "How can I help you this afternoon?". Фоновый градиентный дизайн.

Эй, Чат, напиши мне вымышленную статью: эти магистры готовы совершить академическое мошенничество

Основные чат-боты продемонстрировали разный уровень сопротивляемости преднамеренным запросам на фальсификацию, говорится в исследовании, проведенном Элизабет Гибни и журналом Nature. Все основные модели large language (LLM) могут использоваться либо для совершения академических махинаций, либо для содействия распространению нежелательной…

Мар 7, 2026
Медицинская помощь: врач измеряет давление женщине на улице.

Мы должны устранить «шокирующий» пробел в знаниях о женском здоровье.

В этот Международный женский день нам следует уделить первостепенное внимание новаторским исследованиям в области женского здоровья, таким как укрепление естественной защиты репродуктивной системы, говорит Анита Заиди. Инвестиции в женское здоровье — это инвестиции в их жизнь. Архив…

Мар 7, 2026
Золотистая львиная тамарин на ветке в естественной среде обитания.

Бразильские обезьяны дают уроки о том, как вернуть вид в дикую природу

Несколько тамаринов золотого льва провели некоторое время, тренируясь жить на свободе в парках США

Мар 7, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых