Что такое сложность вычислений с помощью искусственного интеллекта и как это повлияет на чат—ботов?
Ограничения скорости работы Claude и других инструментов могут указывать на более серьезную нехватку чипов, мощности и центров обработки данных, необходимых для запуска продвинутого искусственного интеллекта. Исследователь Леннарт Хейм объясняет
Дени Эллис Бешар под редакцией Эрика Салливана

В конце марта некоторые из самых активных пользователей языковых моделей Claude large от Anthropic начали публиковать скриншоты о странном новом дефиците: они достигли пятичасового лимита использования за 20 минут. Жалобы распространились на Reddit, GitHub и X. Anthropic сообщила подписчикам, что в часы пик их сеансы будут работать быстрее из-за ограничений на использование. Компания также запретила некоторым сторонним инструментам, включая OpenClaw, использовать свои ограничения на подписку по фиксированной ставке. Несколькими неделями ранее Борис Черный, руководитель Claude Code, сказал, что значение по умолчанию для того, как мыслит модель, было снижено.
Пользователи сразу же задались вопросом, почему платный инструмент искусственного интеллекта внезапно стал давать им меньше. Неужели бум искусственного интеллекта начал опережать развитие механизмов, необходимых для его поддержания?
Давление не ограничивается антропными факторами. OpenAI начала закрывать Sora, свою платформу для создания видео, поскольку число разработчиков, использующих Codex, возросло до четырех миллионов в неделю. Инвесторы и разработчики сейчас говорят о «вычислительном кризисе», о возможности того, что спрос на искусственный интеллект растет быстрее, чем компании могут строить центры обработки данных и обеспечивать их энергией.
О поддержке научной журналистики
Если вы'если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистскую деятельность, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.
Ставки выше, чем просто разочарование разработчиков. Если искусственный интеллект станет повседневным интерфейсом для программирования, науки, обучения, медицины, обслуживания клиентов, оборонного планирования и офисной работы, то доступ к вычислениям станет экономически выгодным. И в продуктах, которые люди используют, начинают проявляться ограничения.
Цифры уже внушительны. В опубликованной в июле 2025 года «белой книге» компания Anthropic прогнозирует, что к 2028 году сектору искусственного интеллекта США потребуется не менее 50 гигаватт электрической мощности для поддержания глобального лидерства в области искусственного интеллекта — примерно столько же, сколько 50 крупных ядерных реакторов. Международное энергетическое агентство прогнозирует, что к 2030 году потребление электроэнергии в глобальных центрах обработки данных удвоится.
Вычислительная техника не нова. Каждый чат с Claude или GPT работает на одном и том же базовом оборудовании, которое вычисляет итоговые значения в электронных таблицах и визуализирует видеоигры — кремниевых пластинах, снабженных миллиардами микроскопических переключателей, объединенных в специализированные процессоры. Для обучения модели frontier могут потребоваться десятки тысяч таких процессоров, работающих неделями или месяцами. Как только модель будет обучена, ее использование также потребует вычислений каждый раз, когда кто-то задает вопрос. Этот спрос теперь распространяется по всей цепочке поставок. 15 января Taiwan Semiconductor Manufacturing Company (TSMC), которая производит большинство передовых чипов искусственного интеллекта в мире, объявила, что только в этом году потратит до 56 миллиардов долларов на расширение производственных мощностей. Клиенты по-прежнему требуют большего.
Эксперт по политике в области искусственного интеллекта Леннарт Хейм — полезное руководство по этому механизму. Ранее он руководил компьютерными исследованиями в Центре ИИ, безопасности и технологий RAND и стал одним из основателей Epoch AI, который отслеживает ресурсы, стоящие за передовыми моделями ИИ. Его работа заключается в том, что облачная панель мониторинга становится строительным проектом — где спрос на цифровые технологии сталкивается с фабриками, трансформаторами, чипами и кабелями.
[Ниже приводится отредактированная стенограмма телефонного интервью.]
Разработчики говорят, что ограничения скорости и блокировка сторонних инструментов выглядят как нехватка вычислений. Что на самом деле означает нехватка вычислительных ресурсов?
Когда мы говорим «вычислять», мы подразумеваем вычислительную мощность. Для ИИ обучающие вычисления масштабируются в зависимости от размера модели: большим нейронным сетям требуется больше данных, а для обработки большего объема данных требуется больше вычислительной мощности. В течение многих лет не сообщалось о том, что такая же взаимосвязь сохраняется и при развертывании. Запуск модели длялогический вывод пользователей требует невероятно больших вычислительных ресурсов, поскольку для обслуживания более крупных моделей требуется больше вычислительной мощности. Поэтому, если все больше людей используют ИИ с большим количеством токенов и большей интенсивностью, вам потребуется больше вычислений. Если в 10 раз больше людей будут использовать искусственный интеллект в 10 раз активнее, вам потребуется почти в 100 раз больше вычислений.
Почему подписка с фиксированной ставкой для искусственного интеллекта не работает так, как для более ранних интернет-сервисов?
Интернет доступен по фиксированным тарифам: вы платите 20 долларов в месяц и получаете практически неограниченное пользование. Это работает, когда предельные затраты на одного пользователя невелики — опытный пользователь Google Workspace обходится Google не намного дороже, чем простой пользователь. С ИИ это не так. Использование ИИ в 10 раз дороже обходится провайдеру примерно в 10 раз дороже. Оплата за токен означает, что вы в буквальном смысле платите за свои ресурсы; фиксированная сумма в 20 долларов означает, что вы часто тратите больше ресурсов, чем можно купить за 20 долларов. Вот почему мы видим ограничения по тарифам в основном на ежемесячные планы подписки. В какой-то момент вам придется ограничить скорость.
Помимо ограничений скорости, какие рычаги есть у этих компаний, чтобы контролировать объем вычислений, потребляемых пользователями?
У них есть несколько рычагов. Если вы используете ChatGPT, по умолчанию используется режим Auto: вы задаете вопрос, а ChatGPT определяет, какая модель должна ответить. Действительно ли это умная модель, которая долго думает, или вы просто спрашиваете о погоде — в этом случае она может дать вам немедленный ответ. Anthropic по умолчанию переключился на Claude Sonnet, которая является более компактной и менее мощной моделью. Это обходится дешевле, но и пользы от этого меньше.
Люди также не используют эти инструменты эффективно. Это все равно что спросить Альберта Эйнштейна, как открыть бутылку вина.
Кодекс OpenAI предлагает больше возможностей для использования за свои деньги, чем кодекс Claude. Это устойчиво, или мы увидим, что все перейдут к более строгим планам?
OpenAI была компанией с большим количеством денег и более высокой оценкой, и у них просто больше вычислительных ресурсов. Построить центр обработки данных непросто; создание чипов — это, пожалуй, самая сложная задача в мире. Даже если завтра OpenAI прекратит разработку хороших моделей, у них есть масса вычислений, и это дает им массу возможностей.
Проблема Anthropic в том, что центры обработки данных невероятно дороги -вам приходится так много платить NVIDIA — и если вы перестараетесь, вы потратите огромные суммы на неиспользуемую мощность. Вы хотите создать ровно столько, сколько вам нужно, но вы не можете этого спрогнозировать.
Будущее по-прежнему будет сопряжено с определенными вычислительными трудностями, и в конечном итоге рыночные механизмы решат эту проблему: вы поднимите цену. На данный момент я бы сказал, что эти компании предпочитают ограничивать тарифы, чтобы каждый получал опыт, а не повышать цены.
Расскажите мне о цепочке поставок. Каковы самые большие узкие места, которые мешают компаниям, работающим с искусственным интеллектом, просто наращивать объем вычислений?
Исторически компании-разработчики программного обеспечения могли масштабироваться в 10 или 100 раз в короткие сроки, потому что у них не былоне связан физическими ограничениями — таков дух Кремниевой долины. Но если бы завтра у нас было в 100 раз больше пользователей с искусственным интеллектом, у нас просто не хватило бы вычислительных ресурсов, чтобы обслуживать их.
Такое мышление напрямую отражается на цепочке поставок. Например, TSMC — это компания, которая, если построит завод без заказчика и не будет использовать его на 80 процентов, обанкротится. Появляется Сэм Олтман и говорит, что ему нужно в 100 раз больше чипов, а они говорят: «Ты сумасшедший». Отчасти из-за этого у нас нехватка вычислительных ресурсов.
То же самое происходит и дальше по цепочке: как только у вас есть чипы, вам нужна энергия — вам нужны газовые турбины. Вы идете к производителям газовых турбин и говорите: «Нам нужно в N раз больше газовых турбин», а они отвечают: «Вы шутите, что я делаю, — в течение последнего десятилетия эта отрасль находилась в упадке». Именно здесь цифровой мир встречается с физическим миром. Сейчас у нас недостаточно памяти. Значительная ее часть будет расходоваться на чипы искусственного интеллекта, что означает рост цен на память, и в следующем году ваши смартфоны будут стоить дороже. Компании хотят увеличить объем памяти, но им не хватает места в чистых помещениях. Им нужны специальные заводы, так называемые «фабрики», но только несколько компаний в мире могут построить такие фабрики, и все они полностью забронированы.
Конкурируют ли обучающие модели и ответы на запросы пользователей за одни и те же ресурсы?
Компании хотят создавать более крупные и функциональные системы, чтобы они могли привлекать больше денег и в конечном итоге создавать AGI — и в то же время они хотят зарабатывать деньги прямо сейчас. Логический вывод усиливается, когда все бодрствуют и используют его; обучение происходит непрерывно.
Вероятно, лучшая структура — это не обучение по сравнению с логическим выводом, а научно-исследовательские вычисления по сравнению с обслуживающими вычислениями — людям нужно проверять идеи. Согласно недавним отчетам, большая часть — около 60% — приходится на научно-исследовательские и опытно-конструкторские работы. Это показывает, что эти компании постоянно выбирают между созданием более совершенных продуктов и распределением вычислительных ресурсов между пользователями.

Добавить комментарий
Для отправки комментария вам необходимо авторизоваться.