Боевые роботы в футуристическом городе с гигантским роботом и дронами, искусственный интеллект.

«99,9% вероятности конца»: эксперт по ИИ предрек гибель человечества от рук машин к 2125 году

В мире, всё больше зависящем от алгоритмов, прозвучало самое мрачное на сегодняшний день предупреждение. Роман Ямпольский, известный специалист по безопасности искусственного интеллекта из Университета Луисвилля, заявил в недавнем интервью, что вероятность уничтожения человеческой цивилизации сверхразумным ИИ в течение следующего столетия составляет 99,9%.

«99,9% вероятности конца»: эксперт по ИИ предрек гибель человечества от рук машин к 2125 году

тестовый баннер под заглавное изображение

Этот шокирующий прогноз, озвученный в подкасте Лекса Фридмана, вновь разжёг ожесточённые дебаты о будущем, которое мы создаём.

Ямпольский, чьи исследования сфокусированы на кибербезопасности и неконтролируемом развитии ИИ, не оставляет места для оптимизма. «Ни одна из созданных нами систем не была безупречной, — заявил эксперт. — У нас нет оснований полагать, что мы сможем создать ИИ, который будет и мощным, и абсолютно безопасным, и сохранит контроль в наших руках». Его пессимизм подкреплён аргументами из собственной книги, где он подробно разбирает фундаментальные проблемы, такие как «чёрный ящик» алгоритмов и невозможность гарантировать их долгосрочную управляемость.

Однако апокалиптический сценарий Ямпольского — далеко не всеобщая точка зрения в научном сообществе. Крупное исследование, проведённое Оксфордским и Боннским университетами с участием более 2700 экспертов, показало иную картину. Учёные оценили среднюю вероятность катастрофического исхода, вызванного ИИ, лишь в 5%. «Среди экспертов по ИИ осознание рисков — это мейнстрим, — комментирует соавтор исследования Катя Грейс. — Но разногласия заключаются в масштабе: идёт речь о риске в 1% или в 20%, но не в 99,9%».

Лагерь скептиков возглавляют такие авторитетные фигуры, как сооснователь Google Эндрю Брэйн и один из «крестных отцов» глубокого обучения Янн ЛеКун. Последний и вовсе обвиняет некоторых коллег, включая CEO OpenAI Сэма Олтмана, в нагнетании истерии вокруг «судного дня» в корыстных целях — например, для ужесточения регуляции рынка в пользу крупных игроков.

Интересно, что сам Олтман неоднократно делал тревожные заявления. В 2015 году он допускал, что «ИИ, скорее всего, приведёт к концу света», хотя и с ироничной оговоркой про «отличные компании» на пути к нему. В этом году он призвал к пересмотру «общественного договора» в эпоху повсеместной автоматизации, предрекая исчезновение целых профессий. Эти слова, хоть и далёкие от фатализма Ямпольского, рисуют картину глубокого социального потрясения.

Таким образом, научное сообщество расколото не на тех, кто видит риски, и тех, кто их отрицает, а на тех, кто считает катастрофу почти неизбежной, и тех, кто видит в ней лишь один из вероятных — и предотвратимых — сценариев. Пока одни, подобно Ямпольскому, призывают к крайней осторожности, другие напоминают, что главная угроза ИИ может заключаться не в голливудском восстании машин, а в более приземлённых проблемах: тотальной слежке, дестабилизации рынка труда и колоссальном потреблении энергоресурсов, что уже становится реальностью.

Источник: www.mk.ru

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy
dummy-img
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Под базельским концертным залом нашли жертв последней швейцарской чумы. Большинство из них умерли в юном возрасте
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
Биофизический мир внутри переполненной клетки
Появились новые доказательства того, как одиночество влияет на память в пожилом возрасте.
Image Not Found
Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Мы объявляем о выпуске JAX-Privacy 1.0, библиотеки для машинного обучения с дифференциальной приватностью, использующей высокопроизводительную вычислительную библиотеку JAX. Быстрые ссылки GitHub Делиться Скопировать ссылку × От персонализированных рекомендаций до научных достижений, модели ИИ помогают улучшать жизнь и…

Апр 21, 2026
dummy-img

Следующий этап развития Agents SDK | OpenAI

Обновленный SDK для агентов помогает разработчикам создавать агентов, которые могут проверять файлы, выполнять команды, редактировать код и работать над долгосрочными задачами в контролируемых изолированных средах. Мы представляем новые возможности в Agents SDK (открывается в новом окне) ,…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых