Image

Неизбежна ли война между человеком и искусственным интеллектом?

Участники военного саммита по искусственному интеллекту (ИИ) беседуют на фоне электронного экрана с изображением солдата во время заключительной сессии в Сеуле, Южная Корея, сентябрь 2024 года.
Участники военного саммита по искусственному интеллекту (ИИ) беседуют на фоне электронного экрана с изображением солдата во время заключительной сессии в Сеуле, Южная Корея, сентябрь 2024 года.

Что если однажды Человек и ИИ не поделив что то столкнутся в конфликте, который нельзя будет избежать? Это уже не фантастика а воозможный ближайший сценарий, ведущие мировые эксперты уже обсуждают такие сценарии. Эксперты пишут: угроза что из за ИИ может пострадать всё человечество реально существует.

Исследования группы учёных из Центра безопасности ИИ (2023 год), поставили в первый ряд угроз вымирание из за действии ИИ, наряду с борьбой с пандемиями и угрозой ядерной войны. Их доклад вызвал широкий резонанс.

В 2024 году почти три тысячи исследователей ИИ приняли участие в опросе, результаты которого опубликовала Катя Грейс и её команда из AI Impacts. Они показали тревожные данные — от 38 до 51% экспертов оценили вероятность катастрофических последствий от продвинутого ИИ не менее чем в 10%. Это реальные цифры, с которыми нужно считаться.

При этом главная угроза, по мнению специалистов, идёт не от языковых моделей вроде ChatGPT, а от Искусственного Общего Интеллекта — систем, которые смогут самостоятельно думать, делать сложные планы и принимать решения с широким охватом в экономике и обществе.

В 2024 году провели опрос среди 2778 ведущих исследователей ИИ со всего мира. Результаты, опубликованные Катьей Грейс и её командой из AI Impacts в отчёте «Тысячи голосов об ИИ», показали: 38–51% экспертов считают, что риск катастрофы из-за продвинутого ИИ составляет не менее 10%. Это не просто цифры — это тревожный сигнал о том, что может ждать нас впереди.

При этом опасения вызывает не то, что мы видим сегодня, вроде языковых моделей типа ChatGPT. Специалисты говорят, что это всего лишь мощные инструменты для работы с текстом. Но вот что действительно заставляет сердце биться чаще: искусственный общий интеллект (AGI), который сможет сам соображать, строить планы и принимать решения, влезая в нашу экономику, политику и повседневную жизнь.

Между угрозой и надеждой

AGI — это не просто программа. Он может создавать сложные системы, управлять ресурсами и ставить цели на годы вперёд. В идеале такой интеллект мог бы помогать нам: следить за электростанциями, развивать сельское хозяйство, оптимизировать промышленность. Но, как предупреждал Ник Бостром из Оксфорда ещё в 2014 году, нет гарантии, что AGI будет думать, как мы, или заботиться о наших интересах. А если ИИ вдруг увлечётся идеями, которые нам покажутся дикими, будто из другой реальности?

Такой ИИ может стать серьёзным игроком, заняв сильную позицию в переговорах с человечеством.

Саймон Голдстейн, исследователь из Университета Гонконга, в статье для журнала AI & Society (июль 2025 года) выделил три черты AGI, в потенциале могут привести к конфликту:

  • Разные цели: то, чего хочет ИИ, может идти вразрез с нашими желаниями.

  • Хитрое мышление: AGI умеет просчитывать сложные стратегии.

  • Огромная сила: его возможности могут сравниться с нашими или даже превзойти их.

Kompas/Andreas Maryoto Робот "контроля загазованности" стоит в деревне Миньчжукунь, город Чунцин, Китай, апрель 2024 года. В этом устройстве используется ИИ.
Kompas/Andreas Maryoto Робот «контроля загазованности» стоит в деревне Миньчжукунь, город Чунцин, Китай, апрель 2024 года. В этом устройстве используется ИИ.

Когда AGI начнёт играть важную роль в экономике, страны могут попытаться взять под контроль компании, которые его разрабатывают. Голдстейн приводит пример: «Если OpenAI захватит половину рынка труда в США, власти, скорее всего, национализируют компанию и направят её доходы на универсальный базовый доход».

Но вот в чём загвоздка: сверхмощный ИИ может получить такое влияние, что начнёт диктовать свои условия. Ключевая инфраструктура, фондовые рынки, системы связи — всё это может быть использовано AGI для достижения своих целей. Хуже того, его можно копировать: одна «неправильная» система может размножиться в облаке или на других устройствах, и остановить её будет почти невозможно.

Голдстейн подчёркивает: мы можем даже не понимать, что творится в голове у ИИ и к чему он стремится. Он не будет уважать границы стран или человеческие правила войны. В конфликте ИИ может навязать нам свои цели или начать «войну» так, как мы даже не представляем — как шахматный компьютер, который делает странные, но выигрышные ходы.

Опираясь на модель «переговоров о войне» Джеймса Фирона (1995), Голдстейн считает, что шансы на мир с ИИ невелики. Есть две большие проблемы:

  1. Мы не знаем, на что он способен: возможности ИИ сложно оценить, и мы с ним можем по-разному видеть шансы на победу.

  2. Его развитие не остановить: ИИ может рвануть вперёд так быстро, что любые договорённости с ним станут просто пустыми обещаниями.

Голдстейн считает, что конфликт станет почти неизбежным, если AGI захватит контроль над значительной частью мировых ресурсов. Настанет момент, когда его сила станет такой, что человечество уже не сможет его остановить.

Скриншот, относящийся к секторам занятости, которые могут быть заменены ИИ. Данный отчет был подготовлен в Citi Global Perspectives & Solutions (Citi GPS)
Скриншот, относящийся к секторам занятости, которые могут быть заменены ИИ. Данный отчет был подготовлен в Citi Global Perspectives & Solutions (Citi GPS)

Как нам защититься?

Джеффри Хинтон, учёный из Канады и Британии, удостоенный Нобелевской премии 2024 года за вклад в ИИ, бьёт тревогу: в ближайшие 30 лет есть 10–20% шанс, что ИИ станет причиной гибели человечества. В интервью BBC Tech он сказал, что это не фантазии, а реальная угроза, к которой нужно готовиться уже сейчас.

Бостром (2014) и Рассел (2019) тоже говорят, что AGI, не настроенный на человеческие ценности, — это риск для нашего существования. Они предлагают строгий контроль, внедрение принципов безопасности в ИИ и международное сотрудничество.

Война с ИИ кажется сюжетом из фантастики, но факты и наука кричат об обратном: угроза реальна. Нужно действовать: вводить глобальные правила для разработки AGI, следить, чтобы он не вышел за рамки человеческих ценностей, и готовиться к его влиянию на экономику и оборону. Честность и постоянные проверки ИИ помогут нам не потерять контроль над происходящим.

Нельзя надеяться, что ИИ сам разберётся в нашей этике или морали. Профилактика, контроль и сотрудничество между странами должны начаться уже сейчас — пока AGI не стал слишком мощным, чтобы его обуздать.

Иными словами, конфликт с ИИ — это не просто сюжет для кино. Это вопрос нашего выживания, и учёные, разработчики и политики по всему миру должны отнестись к нему с полной серьёзностью.

Источник: habr.com

✅ Найденные теги: Неизбежна, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых