Image

Мы подсчитали энергетический след ИИ. Вот история, о которой вы ещё не слышали.

5eb718d9b0ac1d5f0a7c8dc4a052b801 Изменение климата и энергия. Мы подсчитали энергетический след ИИ. Вот история, о которой вы ещё не слышали.

Выбросы от отдельных текстовых, графических и видеозапросов ИИ кажутся небольшими — пока вы не сложите все, что отрасль не отслеживает, и не задумаетесь, куда она движется дальше.

к

  • Архивная страница Джеймса О'Доннелла
  • Архивная страница Кейси Краунхарта

20 мая 2025 г.

Интеграция ИИ в нашу жизнь — самый значительный сдвиг в онлайн-жизни за более чем десятилетие. Сотни миллионов людей теперь регулярно обращаются к чат-ботам за помощью с домашними заданиями, исследованиями, программированием или созданием изображений и видео. Но что лежит в основе всего этого?

Сегодня новый анализ MIT Technology Review предоставляет беспрецедентный и всесторонний взгляд на то, сколько энергии потребляет отрасль ИИ (с точностью до одного запроса), чтобы отследить ее текущий углеродный след и направление его развития по мере того, как ИИ стремительно приближается к миллиардам ежедневных пользователей.

Эта статья является частью серии статей MIT Technology Review «Энергоемкость: ИИ и наше энергетическое будущее», посвященной энергетическим потребностям и стоимости выбросов углерода в результате революции искусственного интеллекта.

Мы поговорили с двумя десятками экспертов, оценивающих энергопотребление ИИ, оценили различные модели ИИ и подсказки, изучили сотни страниц прогнозов и отчётов, а также расспросили ведущих разработчиков моделей ИИ об их планах. В конечном счёте, мы обнаружили, что общепринятое понимание энергопотребления ИИ полно пробелов.

Мы начали с малого, поскольку вопрос о стоимости одного запроса критически важен для понимания общей картины. Это связано с тем, что эти запросы внедряются во всё большее количество приложений, выходящих за рамки отдельных чат-ботов: от поиска и агентов до обычных повседневных приложений, которые мы используем для отслеживания физической формы, покупок онлайн или бронирования авиабилетов. Энергоресурсы, необходимые для этой революции искусственного интеллекта, колоссальны, и крупнейшие мировые технологические компании сделали своей первоочередной задачей освоение всё большего объёма этой энергии, стремясь тем самым преобразовать наши энергосети.

Meta и Microsoft работают над запуском новых атомных электростанций. OpenAI и президент Дональд Трамп объявили об инициативе Stargate, в рамках которой планируется потратить 500 миллиардов долларов — больше, чем на космическую программу «Аполлон» — на строительство до 10 центров обработки данных (каждый из которых может потребовать пять гигаватт, что превышает общую потребность штата Нью-Гэмпшир в электроэнергии). Apple объявила о планах потратить 500 миллиардов долларов на производство и центры обработки данных в США в течение следующих четырёх лет. Google планирует потратить 75 миллиардов долларов только на инфраструктуру ИИ в 2025 году.

Это не просто норма цифрового мира. Это уникально для искусственного интеллекта и разительное отличие от недавних энергетических аппетитов крупных технологических компаний. С 2005 по 2017 год объём электроэнергии, потребляемой центрами обработки данных, оставался практически неизменным благодаря повышению эффективности, несмотря на строительство множества новых центров обработки данных для обслуживания растущего числа облачных онлайн-сервисов, от Facebook до Netflix. В 2017 году искусственный интеллект начал менять всё. Центры обработки данных начали строить с использованием энергоёмкого оборудования, разработанного для искусственного интеллекта, что привело к удвоению их потребления электроэнергии к 2023 году. Согласно последним отчётам, 4,4% всей энергии в США сейчас идёт на центры обработки данных.

Углеродоемкость электроэнергии, используемой центрами обработки данных, оказалась на 48% выше, чем в среднем по США.

раздел4-1

Учитывая направление развития ИИ — более персонализированный, способный рассуждать и решать сложные задачи от нашего имени, и везде, куда ни глянь, — вполне вероятно, что наше влияние ИИ сегодня минимально за всю историю. Согласно новым прогнозам, опубликованным Национальной лабораторией имени Лоуренса в Беркли в декабре, к 2028 году более половины электроэнергии, потребляемой центрами обработки данных, будет использоваться для нужд ИИ. К этому моменту только ИИ может потреблять столько же электроэнергии в год, сколько 22% всех домохозяйств США.

Между тем, ожидается, что центры обработки данных продолжат переходить на более грязные и углеродоёмкие виды энергии (например, газ) для удовлетворения текущих потребностей, оставляя за собой облака выбросов. И весь этот рост связан с новой технологией, которая ещё только находит своё применение и во многих областях применения — образовании, медицинском консультировании, юридическом анализе — может оказаться неподходящим инструментом или, по крайней мере, иметь менее энергоёмкую альтернативу.

Подсчёты энергопотребления ИИ часто уводят разговор в сторону — либо критикуя поведение отдельных лиц, либо вызывая сравнения с более крупными нарушителями климата. Обе реакции уводят от сути: ИИ неизбежен, и даже если один запрос не оказывает существенного влияния, правительства и компании теперь формируют гораздо более масштабное энергетическое будущее вокруг потребностей ИИ.

Мы применяем другой подход, основанный на учете, который позволит принимать множество решений, которые еще предстоит решить: где будут располагаться центры обработки данных, что их питает и как сделать растущую нагрузку от искусственного интеллекта видимой и поддающейся учету.

По оценкам, ChatGPT в настоящее время является пятым по посещаемости веб-сайтом в мире, сразу после Instagram и опережая X.

Это связано с тем, что, несмотря на амбициозное видение ИИ, представленное технологическими компаниями, поставщиками коммунальных услуг и федеральным правительством, детали того, как может возникнуть это будущее, остаются неясными. Учёные, финансируемые из федерального бюджета исследовательские центры, активисты и энергетические компании утверждают, что ведущие компании в области ИИ и операторы центров обработки данных слишком мало раскрывают информацию о своей деятельности. Компании, разрабатывающие и внедряющие модели ИИ, в основном молчат, когда дело доходит до ответа на главный вопрос: сколько энергии потребляет взаимодействие с одной из этих моделей? И какие источники энергии будут питать будущее ИИ?

Это заставляет даже тех, кто прогнозирует энергетический спрос, собирать пазл из бесчисленных недостающих элементов, что делает практически невозможным прогнозирование будущего влияния ИИ на энергосети и выбросы. Хуже того, сделки, которые коммунальные компании заключают с центрами обработки данных, вероятно, переложат расходы на революцию ИИ на всех нас в виде более высоких счетов за электроэнергию.

Чтобы описать общую картину того, как выглядит это будущее, нам придется начать с самого начала.

Прежде чем вы сможете попросить модель ИИ помочь вам с планированием поездки или созданием видео, эта модель создается в центре обработки данных.

Стойки серверов месяцами жужжат, обрабатывая данные для обучения, обрабатывая числа и выполняя вычисления. Это трудоёмкий и дорогостоящий процесс: по оценкам, обучение GPT-4 OpenAI обошлось более чем в 100 миллионов долларов и потребило 50 гигаватт-часов энергии, чего хватило бы для трёх дней работы Сан-Франциско. Только после такого обучения, когда потребители или клиенты «выводят» модели ИИ, чтобы получить ответы или сгенерировать результаты, создатели моделей надеются окупить свои огромные затраты и в конечном итоге получить прибыль.

«Для любой компании получение прибыли от модели возможно только при помощи выводов», — говорит Эша Чоуксе, исследователь из Microsoft Azure, изучающая, как сделать вывод ИИ более эффективным.

Как показали беседы с экспертами и компаниями, занимающимися разработкой ИИ, именно вывод, а не обучение, составляет большую часть энергетических потребностей ИИ, и эта тенденция сохранится в ближайшем будущем. По оценкам, в настоящее время 80–90% вычислительной мощности ИИ используется для вывода.

Всё это происходит в центрах обработки данных. В США насчитывается около 3000 таких зданий, в которых размещаются серверы и системы охлаждения. Они эксплуатируются облачными провайдерами и технологическими гигантами, такими как Amazon или Microsoft, а также используются стартапами в области искусственного интеллекта. Всё больше таких зданий (хотя точное количество неясно, поскольку информация о таких объектах очень строго охраняется) используются для вывода с помощью ИИ.

В каждом из этих центров модели ИИ загружаются на кластеры серверов, содержащих специальные чипы, называемые графическими процессорами (GPU), наиболее известной из которых является модель H100 от Nvidia.

Поставки этого чипа начались в октябре 2022 года, всего за месяц до публичного запуска ChatGPT. С тех пор продажи H100 резко возросли, и это одна из причин, по которой Nvidia регулярно входит в число самых дорогих публичных компаний мира.

Среди других чипов — A100 и новейшие Blackwell. Общее для всех них — значительное энергопотребление для выполнения сложных операций без перегрева.

Одна модель ИИ может быть размещена примерно на дюжине графических процессоров, а крупный центр обработки данных может иметь более 10 000 таких чипов, соединенных вместе.

Рядом с этими чипами соединены центральные процессоры (чипы, которые передают информацию на графические процессоры) и вентиляторы, обеспечивающие охлаждение всего этого.

Некоторое количество энергии теряется практически при каждом обмене из-за несовершенства изоляционных материалов и длинных кабелей между стойками серверов, а во многих зданиях для охлаждения ежедневно используются миллионы галлонов воды (часто пресной питьевой воды).

В зависимости от предполагаемого использования эти модели ИИ загружаются в сотни или тысячи кластеров в различных центрах обработки данных по всему миру, каждый из которых использует разные сочетания источников энергии.

Затем они подключаются к сети и просто ждут, когда вы зададите им вопрос.

Если вы видели несколько диаграмм, оценивающих энергетический эффект от задания вопроса модели искусственного интеллекта, вы могли подумать, что это похоже на измерение расхода топлива автомобиля или энергоэффективности посудомоечной машины: известное значение с общей методологией расчёта. Вы ошибаетесь.

На самом деле тип и размер модели, тип генерируемых вами выходных данных и бесчисленное множество переменных, находящихся вне вашего контроля (например, к какой энергетической сети подключен центр обработки данных, в который отправляется ваш запрос, и в какое время суток он обрабатывается), могут сделать один запрос в тысячи раз более энергоемким и производящим больше выбросов, чем другой.

И когда вы обращаетесь к большинству моделей искусственного интеллекта, будь то на телефоне в приложении вроде Instagram или через веб-интерфейс ChatGPT, многое из того, что происходит после того, как ваш запрос перенаправляется в центр обработки данных, остаётся в тайне. Такие факторы, как какой центр обработки данных в мире обрабатывает ваш запрос, сколько энергии на это тратится и насколько углеродоёмкими являются используемые источники энергии, как правило, известны только компаниям, которые используют эти модели.

Это справедливо для большинства известных моделей, к которым вы привыкли, таких как ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic, которые называются «закрытыми». Ключевые детали тщательно хранятся компаниями-производителями, поскольку они считаются коммерческой тайной (и, возможно, потому, что могут негативно сказаться на имидже компании). У этих компаний мало стимулов раскрывать эту информацию, и до сих пор они этого не делали.

«Поставщики закрытых моделей ИИ предлагают полностью «черный ящик», — говорит Борис Гамазайчиков, руководитель отдела устойчивого развития ИИ в Salesforce, который совместно с исследователями Hugging Face, поставщика инструментов, моделей и библиотек для платформы ИИ для частных лиц и компаний, работает над повышением прозрачности энергопотребления ИИ. Без более широкого раскрытия информации от компаний у нас не только нет точных оценок, но и вообще мало что можно от них получить.

Без более подробной информации от компаний у нас не только не будет хороших оценок, но и вообще будет мало данных, на которые можно было бы опереться.

Итак, куда же обратиться за оценками? Исследователи могут скачать и настроить так называемые модели с открытым исходным кодом, получив доступ к специальным инструментам для измерения энергопотребления графического процессора H100 для выполнения конкретной задачи. Такие модели также невероятно популярны; в апреле компания Meta объявила, что её модели Llama были загружены более 1,2 миллиарда раз, и многие компании используют модели с открытым исходным кодом, когда им требуется больший контроль над результатами, чем при использовании чего-то вроде ChatGPT.

Но даже если исследователи смогут измерить мощность, потребляемую графическим процессором, это не учитывает мощность, потребляемую центральными процессорами, вентиляторами и другим оборудованием. В статье Microsoft, опубликованной в 2024 году, анализируется энергоэффективность вывода больших языковых моделей. Было обнаружено, что удвоение количества энергии, потребляемой графическим процессором, даёт приблизительную оценку энергопотребления всей операции.

Итак, на данный момент измерение ведущих моделей с открытым исходным кодом (и добавление оценок для всех этих компонентов) даёт нам наилучшую картину того, сколько энергии тратится на один запрос ИИ. Однако следует помнить, что способы, которыми люди используют ИИ сегодня — например, для составления списка покупок или создания сюрреалистического видео — гораздо проще, чем те, которые мы будем использовать в автономном, агентном будущем, к которому нас подталкивают компании, занимающиеся ИИ. Подробнее об этом позже.

Вот что мы обнаружили.

Текстовые модели

Начнём с моделей, где вы вводите вопрос и получаете ответ в виде текста. Одна из ведущих групп, оценивающих энергетические потребности ИИ, находится в Мичиганском университете под руководством аспиранта Чжэ-Вон Чунга и доцента Мошарафа Чоудхури. Они публикуют результаты измерений энергопотребления в своей таблице лидеров ML.Energy. Мы работали с этой командой, чтобы сосредоточиться на энергетических потребностях одной из самых распространённых моделей с открытым исходным кодом — Llama от Meta.

Самая маленькая модель в нашей когорте Llama, Llama 3.1 8B, имеет 8 миллиардов параметров — по сути, это регулируемые «ручки» в модели ИИ, позволяющие ей делать прогнозы. При тестировании на различных текстовых запросах, таких как составление маршрута для поездки в Стамбул или объяснение принципов работы квантовых вычислений, модели требовалось около 57 джоулей на ответ, или, по оценкам, 114 джоулей с учётом охлаждения, других вычислений и прочих потребностей. Этого совсем немного — примерно столько же, сколько требуется, чтобы проехать шесть футов на электровелосипеде или включить микроволновку на одну десятую секунды.

Самая крупная из нашей когорты, генерирующей тексты, Llama 3.1 405B, имеет в 50 раз больше параметров. Большее количество параметров, как правило, означает лучшие ответы, но и больше энергии, необходимой для каждого ответа. В среднем этой модели требовалось 3353 джоуля, или, по оценкам, всего 6706 джоулей, для каждого ответа. Этого достаточно, чтобы провезти человека на электровелосипеде примерно 122 метра или включить микроволновку на восемь секунд.

75fa3c3a46a86bdc6c43c8d3f1bcfa8f7d9c470b51cef27ad5657cc0c0f0d886 Расскажи мне шутку. | Конечно! Вот одна:В: Почему этот грязевой монстр решил подписаться на этот журнал?О: Потому что он хотел быть в курсе всех технических новинок.

Таким образом, размер модели играет важную роль в прогнозировании энергопотребления. Одна из причин заключается в том, что по достижении определённого размера модель приходится запускать на большем количестве чипов, каждый из которых увеличивает потребляемую мощность. Самая большая протестированная нами модель содержит 405 миллиардов параметров, но другие, например, DeepSeek, пошли гораздо дальше, имея более 600 миллиардов параметров. Количество параметров для моделей с закрытым исходным кодом не публикуется и может быть оценено лишь приблизительно. GPT-4, по оценкам, содержит более 1 триллиона параметров.

Но во всех этих случаях сама подсказка также играла важную роль. Простые подсказки, например, просьба рассказать несколько шуток, часто потребляли в девять раз меньше энергии, чем более сложные, для написания творческих историй или идей для рецептов.

Генерация изображения

Модели ИИ, генерирующие изображения и видео, работают с другой архитектурой, называемой диффузией. Вместо того, чтобы предсказывать и генерировать слова, они учатся преобразовывать изображение шума, скажем, в фотографию слона. Они делают это, изучая контуры и узоры изображений в своих обучающих данных и сохраняя эту информацию в миллионах или миллиардах параметров. Модели видеогенераторов также учатся делать это во временном измерении.

Энергопотребление данной модели диффузии не зависит от вашего запроса — создание изображения лыжника на песчаных дюнах требует столько же энергии, сколько и создание изображения астронавта, занимающегося фермерством на Марсе. Энергопотребление зависит от размера модели, разрешения изображения и количества «шагов» процесса диффузии (большее количество шагов повышает качество, но требует больше энергии).

Генерация изображения стандартного качества (1024 x 1024 пикселей) с помощью Stable Diffusion 3 Medium, ведущего генератора изображений с открытым исходным кодом, с 2 миллиардами параметров, требует около 1141 джоуля энергии графического процессора. В отличие от моделей большого языка, для моделей диффузии нет оценок того, сколько графических процессоров отвечает за общую требуемую энергию, но эксперты предложили нам придерживаться подхода «удвоения», который мы использовали до сих пор, поскольку различия, вероятно, незначительны. Это означает примерно 2282 джоуля в общей сложности. Улучшение качества изображения путем удвоения числа шагов диффузии до 50 почти удваивает требуемую энергию, примерно до 4402 джоулей. Это эквивалентно примерно 250 футам на электровелосипеде или примерно пяти с половиной секундам работы микроволновки. Это все еще меньше, чем у самой большой текстовой модели.

938f18aacfa1d8eab82bdfe072a8f21c6f623ab89faa70f12a13679293df9770 Отлично. Как выглядит этот грязевой монстр? | Хотите изображение? Сейчас появится! Генерация изображения… Сгенерированное изображение

Это может показаться удивительным, если представить, что генерация изображений требует больше энергии, чем генерация текста. «У больших [текстовых] моделей множество параметров», — говорит Чунг, проводивший измерения на генераторах текста и изображений с открытым исходным кодом, упомянутых в этой статье. «Хотя они и генерируют текст, они выполняют большой объём работы». Генераторы изображений, с другой стороны, часто работают с меньшим количеством параметров.

Создание видео

Видеоролики созданы с помощью CogVideoX — модели с открытым исходным кодом.

В прошлом году OpenAI представила Sora — потрясающий инструмент для создания высококачественных видео с помощью ИИ. Появились и другие видеомодели с закрытым исходным кодом, такие как Google Veo2 и Adobe Firefly.

Учитывая колоссальные затраты капитала и контента, необходимые для обучения этих моделей, неудивительно, что бесплатные модели с открытым исходным кодом, как правило, отстают по качеству. Тем не менее, по мнению исследователей Hugging Face, одним из лучших является CogVideoX, созданный китайским стартапом Zhipu AI и исследователями из Университета Цинхуа в Пекине.

Саша Луччони, исследователь искусственного интеллекта и климата в Hugging Face, протестировала энергию, необходимую для создания видеороликов с помощью модели, используя инструмент под названием Code Carbon.

Старая версия модели, выпущенная в августе, снимала видео со скоростью всего восемь кадров в секунду с зернистым разрешением — больше похожим на GIF, чем на видео. Для создания каждого из них требовалось около 109 000 джоулей. Но три месяца спустя компания выпустила более крупную, более качественную модель, которая снимает пятисекундные видео со скоростью 16 кадров в секунду (эта частота кадров всё ещё не является высокой чёткостью; она использовалась в эпоху немого кино в Голливуде до конца 1920-х годов). Новая модель использует более чем в 30 раз больше энергии на каждое 5-секундное видео: около 3,4 миллиона джоулей, что более чем в 700 раз превышает энергию, необходимую для создания высококачественного изображения. Это эквивалентно поездке на электровелосипеде на расстояние 38 миль или работе микроволновки более часа.

Можно смело утверждать, что ведущие видеогенераторы на базе ИИ, создающие захватывающие и гиперреалистичные видеоролики длительностью до 30 секунд, будут потреблять значительно больше энергии. По мере того, как эти генераторы становятся крупнее, они также добавляют функции, позволяющие настраивать отдельные элементы видео и склеивать несколько кадров в сцены, что увеличивает их энергопотребление. Примечание: компании, занимающиеся разработкой ИИ, оправдывают эти цифры, утверждая, что генеративное видео занимает меньше места, чем съёмка и перемещение, которые требуются при обычном видеопроизводстве. Это утверждение сложно проверить, и оно не учитывает всплеск производства видео, который может последовать, если производство видео с использованием ИИ станет дешёвым.

Все в течение дня

Так как же может выглядеть дневной расход энергии для одного человека, имеющего привычку использовать ИИ?

3:30

Предположим, вы бежите марафон в благотворительной организации и организуете сбор средств в поддержку своего дела. Вы задаёте модели искусственного интеллекта 15 вопросов о наилучшем способе сбора средств.

Затем вы делаете 10 попыток создать изображение для своего флаера, прежде чем найдете то, которое вас устроит, и три попытки снять пятисекундное видео для публикации в Instagram.

Вам потребуется около 2,9 киловатт-часов электроэнергии — этого достаточно, чтобы проехать более 100 миль на электровелосипеде (или около 10 миль на среднестатистическом электромобиле) или обеспечить работу микроволновки в течение более трех с половиной часов.

В этой арифметике есть существенная оговорка. Эти цифры не могут служить приблизительным показателем того, сколько энергии требуется для работы чего-то вроде ChatGPT 4o. Мы не знаем, сколько параметров содержится в новейших моделях OpenAI, сколько из них используется для различных архитектур моделей, какие центры обработки данных используются и как OpenAI распределяет запросы по всем этим системам. Вы можете догадываться, как это делали многие, но эти догадки настолько приблизительны, что могут скорее отвлекать, чем помогать.

«Нам следует прекратить попытки подделывать цифры, основываясь на слухах, — говорит Луччони, — и усилить давление на эти компании, чтобы они делились реальными данными». Луччони создал AI Energy Score — инструмент для оценки энергоэффективности моделей. Но компании с закрытым исходным кодом должны согласиться на это. По словам Луччони, мало кто это сделал.

Теперь, когда у нас есть оценка общего объема энергии, необходимого для работы модели ИИ для создания текста, изображений и видео, мы можем определить, что это означает с точки зрения выбросов, вызывающих изменение климата.

Во-первых, гудящий дата-центр — это не обязательно плохо. Если бы все дата-центры были подключены к солнечным панелям и работали только в солнечную погоду, мир бы гораздо меньше говорил об энергопотреблении искусственного интеллекта. Но это не так. Большинство электросетей по всему миру по-прежнему сильно зависят от ископаемого топлива. Поэтому потребление электроэнергии имеет свои климатические последствия.

«Центры обработки данных ИИ нуждаются в постоянном электропитании 24 часа в сутки, 7 дней в неделю, 365 дней в году», — говорит Рахул Мевавалла, генеральный директор Mawson Infrastructure Group, которая строит и обслуживает энергоемкие центры обработки данных для поддержки ИИ.

Это означает, что центры обработки данных не могут полагаться на непостоянные технологии, такие как энергия ветра и солнца, и в среднем они, как правило, используют более грязную электроэнергию. В одном из предварительных исследований Школы общественного здравоохранения имени Т. Х. Чана при Гарвардском университете было обнаружено, что углеродоёмкость электроэнергии, потребляемой центрами обработки данных, на 48% выше, чем в среднем по США. Отчасти это связано с тем, что в настоящее время центры обработки данных сосредоточены в местах с более грязными электросетями, например, в регионе Средней Атлантики, включающем Вирджинию, Западную Вирджинию и Пенсильванию, где преобладает уголь. Кроме того, они работают постоянно, даже когда более чистые источники могут быть недоступны.

Центры обработки данных не могут полагаться на непостоянные технологии, такие как энергия ветра и солнца, и в среднем они, как правило, используют более грязную электроэнергию.

Такие технологические компании, как Meta, Amazon и Google, отреагировали на проблему ископаемого топлива, объявив о намерении увеличить использование ядерной энергии. Эти три компании присоединились к обязательству утроить мировые мощности АЭС к 2050 году. Однако сегодня ядерная энергия обеспечивает лишь 20% электроэнергии в США и лишь малую часть работы центров обработки данных ИИ — например, в Вирджинии, где центров обработки данных больше, чем в любом другом штате США, на природный газ приходится более половины электроэнергии, вырабатываемой в стране. Более того, запуск новых ядерных установок займёт годы, а возможно, и десятилетия.

В 2024 году доля ископаемого топлива, включая природный газ и уголь , в электроснабжении США составляла чуть менее 60%. На атомную энергетику приходилось около 20%, а на сочетание возобновляемых источников энергии приходилось почти 20% оставшихся.

раздел4-1

Перебои с электроснабжением в сочетании со стремительным строительством центров обработки данных для систем искусственного интеллекта часто приводят к недальновидным энергетическим планам. В апреле, согласно спутниковым снимкам, суперкомпьютерный центр Илона Маска X недалеко от Мемфиса использовал десятки метановых газогенераторов, которые, по утверждению Южного центра экологического права, не одобрены энергетическими регуляторами для использования в качестве дополнения к энергосистеме и нарушают Закон о чистом воздухе.

Ключевой показатель, используемый для количественной оценки выбросов этих центров обработки данных, называется углеродоемкостью: сколько граммов углекислого газа приходится на каждый киловатт-час потребленной электроэнергии. Для определения углеродоемкости конкретной электросети необходимо знать выбросы, производимые каждой отдельной работающей электростанцией, а также объем энергии, который каждая из них поставляет в сеть в любой момент времени. Коммунальные предприятия, государственные учреждения и исследователи используют оценки средних выбросов, а также измерения в режиме реального времени для отслеживания загрязнения электростанциями.

Эта интенсивность сильно различается в зависимости от региона. Энергосистема США фрагментирована, и соотношение угля, газа, возобновляемых источников энергии и атомной энергии сильно различается. Например, энергосистема Калифорнии гораздо чище, чем, например, в Западной Вирджинии.

Время суток тоже имеет значение. Например, данные за апрель 2024 года показывают, что выбросы в электросети Калифорнии могут колебаться от менее 70 граммов на киловатт-час днём, когда доступно много солнечной энергии, до более 300 граммов на киловатт-час ночью.

Эта изменчивость означает, что одна и та же деятельность может оказывать совершенно разное воздействие на климат в зависимости от вашего местоположения и времени подачи запроса. Возьмём, к примеру, того марафонца из благотворительной организации. Запрошенные им текстовые, графические и видеоответы в сумме потребляют 2,9 киловатт-часа электроэнергии. В Калифорнии производство такого количества электроэнергии привело бы к выбросам углекислого газа в среднем на 650 граммов. Но производство такой электроэнергии в Западной Вирджинии может увеличить этот показатель до более чем 1150 граммов.

ИИ за углом

Пока что мы видели, что энергия, необходимая для ответа на запрос, может быть относительно небольшой, но она может значительно варьироваться в зависимости от типа запроса и используемой модели. Выбросы, связанные с этим количеством электроэнергии, также будут зависеть от того, где и когда обрабатывается запрос. Но что всё это значит в сумме?

По оценкам, ChatGPT в настоящее время является пятым по посещаемости веб-сайтом в мире, сразу после Instagram и впереди X. В декабре OpenAI заявила, что ChatGPT получает 1 миллиард сообщений каждый день, а после того, как в марте компания запустила новый генератор изображений, она заявила, что пользователи используют его для создания 78 миллионов изображений в день — от портретов в стиле Studio Ghibli до фотографий себя в образе кукол Барби.

Учитывая направление развития ИИ — он становится более персонализированным, способен рассуждать и решать сложные проблемы от нашего имени и везде, куда ни глянь, — вполне вероятно, что наш сегодняшний след ИИ минимален за всю историю.

Можно провести очень грубые расчёты, чтобы оценить энергопотребление. В феврале исследовательская компания Epoch AI, занимающаяся исследованиями в области искусственного интеллекта, опубликовала оценку энергопотребления для одного запроса ChatGPT. Эта оценка, как уже упоминалось, основана на множестве допущений, которые невозможно проверить. Тем не менее, они подсчитали, что потребление энергии на сообщение составляет около 0,3 ватт-часа, или 1080 джоулей. Это находится между нашими оценками для самой маленькой и самой большой модели Meta Llama (и эксперты, с которыми мы консультировались, утверждают, что, скорее всего, реальное значение выше, а не ниже).

Миллиард таких устройств каждый день в течение года означал бы более 109 гигаватт-часов электроэнергии, чего хватило бы для обеспечения 10 400 домов в США в течение года. Если же добавить изображения и представить, что для создания каждого из них требуется столько же энергии, сколько и для наших высококачественных моделей изображений, то это означало бы дополнительные 35 гигаватт-часов, чего хватило бы для обеспечения ещё 3300 домов в течение года. Это сверх энергозатрат других продуктов OpenAI, таких как видеогенераторы, а также всех других компаний и стартапов, работающих в сфере ИИ.

Но вот в чем проблема: эти оценки не отражают ближайшего будущего того, как мы будем использовать ИИ. В этом будущем мы не будем просто задавать моделям ИИ один-два вопроса в течение дня или заставлять их генерировать фотографию. Вместо этого ведущие лаборатории подгоняют нас к миру, где «агенты» ИИ будут выполнять задачи за нас, без нашего контроля за каждым их шагом. Мы будем разговаривать с моделями в голосовом режиме, общаться с товарищами по 2 часа в день и направлять камеры наших телефонов на наше окружение в видеорежиме. Мы будем давать сложные задачи так называемым «моделям рассуждения», которые логически обрабатывают задачи, но, как было обнаружено, требуют в 43 раза больше энергии для решения простых проблем, или моделям «глубоких исследований», которые часами создают для нас отчеты. У нас будут модели ИИ, «персонализированные» путем обучения на наших данных и предпочтениях.

Это будущее уже не за горами: OpenAI, как сообщается, будет предлагать агентам услуги за 20 000 долларов в месяц и будет использовать возможности рассуждений во всех своих будущих моделях, а DeepSeek вывела рассуждения на основе «цепочки мыслей» в массовый оборот благодаря модели, которая часто генерирует девять страниц текста для каждого ответа. Модели ИИ внедряются повсюду: от телефонных линий обслуживания клиентов до врачебных кабинетов, что быстро увеличивает долю ИИ в национальном потреблении энергии.

«Немногие драгоценные цифры, которыми мы располагаем, могут пролить крошечный луч света на то, где мы находимся сейчас, но в ближайшие годы все ставки будут сделаны», — говорит Луччони.

Все исследователи, с которыми мы общались, утверждали, что невозможно оценить энергетические потребности этого будущего, просто экстраполируя данные об энергии, потребляемой сегодня запросами ИИ. И действительно, действия ведущих компаний в области ИИ по запуску атомных электростанций и созданию центров обработки данных беспрецедентных масштабов свидетельствуют о том, что их видение будущего потребует гораздо больше энергии, чем даже большое количество этих отдельных запросов.

«Немногие драгоценные цифры, которыми мы располагаем, могут пролить крошечный свет на наше текущее положение, но в ближайшие годы всё изменится», — говорит Луччиони. «Инструменты генеративного ИИ практически навязываются нам, и становится всё сложнее отказаться от них или сделать осознанный выбор, когда речь идёт об энергии и климате».

Чтобы понять, сколько энергии потребуется для этой революции искусственного интеллекта и откуда она возьмется, нам придется читать между строк.

В отчете, опубликованном в декабре Национальной лабораторией имени Лоуренса в Беркли, которая финансируется Министерством энергетики и подготовила 16 Нобелевских премий, была предпринята попытка оценить, как распространение ИИ может повлиять на спрос на энергию.

Проанализировав как общедоступные, так и собственные данные о центрах обработки данных в целом, а также специфические потребности ИИ, исследователи пришли к однозначному выводу. В 2024 году центры обработки данных в США потребляли около 200 тераватт-часов электроэнергии, что примерно соответствует годовому потреблению электроэнергии в Таиланде. Серверы, работающие под управлением ИИ, в этих центрах обработки данных, по оценкам, потребляли от 53 до 76 тераватт-часов электроэнергии. В лучшем случае этого достаточно для обеспечения электроэнергией более 7,2 миллионов домов в США в течение года.

Если представить, что большая часть этой энергии ушла на логические выводы, то это означает, что в прошлом году в США на искусственный интеллект было потрачено столько электроэнергии, что каждый житель Земли мог бы обменяться более чем 4000 сообщений с чат-ботами. В реальности, конечно, среднестатистические пользователи не отвечают за весь этот спрос на электроэнергию. Значительная её часть, вероятно, идёт на стартапы и технологические гиганты, тестирующие свои модели, опытных пользователей, изучающих каждую новую функцию, и на энергоёмкие задачи, такие как создание видео или аватаров.

В 2024 году центры обработки данных в США потребили около 200 тераватт-часов электроэнергии, что примерно соответствует объему, необходимому для обеспечения электроэнергией Таиланда в течение года.

раздел4-1

По оценкам исследователей, к 2028 году объём электроэнергии, расходуемой на нужды искусственного интеллекта, вырастет до 165–326 тераватт-часов в год. Это больше, чем вся электроэнергия, потребляемая в настоящее время американскими центрами обработки данных для любых целей; этого достаточно для обеспечения электроэнергией 22% американских домохозяйств в год. Это может привести к выбросам, сопоставимым с пробегом более 300 миллиардов миль — более 1600 поездок с Земли туда и обратно до Солнца.

Исследователи ясно дали понять, что внедрение искусственного интеллекта и ускоренных серверных технологий, лежащих в его основе, стало основной причиной резкого роста спроса на электроэнергию в центрах обработки данных после более чем десятилетнего периода стагнации. В период с 2024 по 2028 год доля электроэнергии, потребляемой в центрах обработки данных в США, может утроиться с нынешних 4,4% до 12%.

Этот беспрецедентный рост спроса на электроэнергию для ИИ соответствует заявлениям ведущих компаний. SoftBank, OpenAI, Oracle и эмиратская инвестиционная компания MGX намерены потратить 500 миллиардов долларов в течение следующих четырёх лет на новые центры обработки данных в США. Первый центр уже начал строительство в Абилине, штат Техас, и включает в себя восемь зданий, каждое из которых размером с бейсбольный стадион. В ответ на запрос Белого дома компания Anthropic предложила США построить дополнительные 50 гигаватт выделенной мощности к 2027 году.

Компании, занимающиеся разработкой ИИ, также планируют строительство многогигаваттных объектов за рубежом, в том числе в Малайзии, которая становится центром обработки данных в Юго-Восточной Азии. В мае OpenAI объявила о плане поддержки строительства центров обработки данных за рубежом в рамках стратегии «распространения демократического ИИ». Компании действуют несистематически, стремясь к достижению этой цели: заключают контракты на строительство новых атомных электростанций, запускают старые и заключают крупные сделки с коммунальными предприятиями.

MIT Technology Review запросил интервью у Google, OpenAI и Microsoft об их планах на будущее и конкретных данных об энергопотреблении, необходимом для построения передовых моделей ИИ. OpenAI отказалась предоставить данные или предоставить кого-либо для интервью, но сделала заявление, в котором говорится, что компания отдает приоритет эффективному использованию вычислительных ресурсов и сотрудничает с партнёрами для достижения целей устойчивого развития, а также что ИИ может помочь в поиске решений по борьбе с изменением климата. Компания заявила, что первые площадки для её инициативы Stargate будут работать на природном газе и солнечной энергии, а также что компания будет стремиться использовать ядерную и геотермальную энергию везде, где это возможно.

Компания Microsoft рассказала о собственных исследованиях по повышению эффективности ИИ, но отказалась раскрыть подробности того, как эти подходы внедряются в ее центрах обработки данных.

Google отказалась предоставить данные о том, сколько энергии требуется для вывода данных для таких ИИ-моделей, как Gemini, и таких функций, как AI Overviews. Компания указала на информацию о своих TPU — собственном аналоге графических процессоров Google — и достигнутом ими повышении эффективности.

Исследователи из Университета Лоуренса в Беркли резко раскритиковали текущее положение дел, заявив, что информации, раскрываемой технологическими компаниями, операторами центров обработки данных, коммунальными службами и производителями оборудования, недостаточно для обоснованных прогнозов относительно беспрецедентного спроса на энергию в будущем или оценки выбросов, которые оно создаст. Они предложили способы, с помощью которых компании могли бы раскрывать больше информации, не нарушая коммерческую тайну, например, соглашения об анонимном обмене данными, но в своем отчете признали, что архитекторы этого масштабного всплеска числа центров обработки данных с использованием ИИ до сих пор не были прозрачны, что лишило их инструментов для разработки плана.

«Помимо ограничения объема данного отчета, отсутствие прозрачности подчёркивает, что рост числа центров обработки данных происходит без должного внимания к оптимальной интеграции этих новых нагрузок с расширением производства/передачи электроэнергии или более широким развитием сообщества», — пишут они. Авторы также отмечают, что за последние 20 лет было опубликовано всего два подобных отчета.

Несколько других исследователей заявили, что их способность понять выбросы и энергетические потребности ИИ ограничена тем, что ИИ пока не рассматривается как самостоятельный сектор. Например, Управление энергетической информации США составляет прогнозы и проводит измерения для обрабатывающей промышленности, горнодобывающей промышленности, строительства и сельского хозяйства, но подробных данных об ИИ просто нет.

«Почему мы должны платить за эту инфраструктуру? Почему мы должны платить за их электроэнергию?»

Согласно новому исследованию, опубликованному в марте, часть расходов за эту революцию ИИ могут взять на себя частные лица. Исследователи из Гарвардской инициативы по праву в области электроэнергетики проанализировали соглашения между коммунальными компаниями и технологическими гигантами, такими как Meta, которые регулируют размер платы за электроэнергию в крупных новых центрах обработки данных. Они обнаружили, что скидки, предоставляемые коммунальными компаниями крупным технологическим компаниям, могут привести к повышению тарифов на электроэнергию для потребителей. В некоторых случаях, если определенные центры обработки данных не привлекут обещанного бизнеса в сфере ИИ или им потребуется меньше энергии, чем ожидалось, налогоплательщики все равно могут быть вынуждены субсидировать их. В отчете законодательного собрания Вирджинии за 2024 год подсчитано, что в среднем налогоплательщики жилых домов в штате могут платить дополнительно 37,50 долларов каждый месяц за электроэнергию в центрах обработки данных.

«Нам неясно, перевешивают ли преимущества этих центров обработки данных эти затраты», — говорит Элиза Мартин, юрист Программы по экологическому и энергетическому праву Гарвардского университета и соавтор исследования. «Зачем нам платить за эту инфраструктуру? Зачем нам оплачивать их счета за электроэнергию?»

Когда вы просите модель искусственного интеллекта написать вам шутку или создать видео со щенком, этот запрос сопровождается небольшим, но измеримым расходом энергии и соответствующим объёмом выбросов в атмосферу. Учитывая, что каждый отдельный запрос часто потребляет меньше энергии, чем работа кухонного прибора в течение нескольких минут, это может показаться незначительным.

Но по мере того, как всё больше людей обращаются к инструментам ИИ, эти последствия начинают накапливаться. И всё чаще вам не нужно искать способы использовать ИИ: он проникает во все уголки нашей цифровой жизни.

Важно отметить, что мы многого не знаем; технологические гиганты в основном хранят подробности в тайне. Но, судя по нашим оценкам, ИИ — это сила, меняющая не только технологии, но и энергосистему, и мир вокруг нас.

Мы выражаем особую благодарность Дже-Вон Чунгу, Мошарафу Чоудхури и Саше Луччони, которые поделились своими измерениями энергопотребления ИИ для этого проекта.

Эта статья была поддержана грантом Центра искусственного интеллекта журналистики Тарбелла.

Прочтите это далее:

  1. 1. Может ли ядерная энергетика действительно способствовать развитию искусственного интеллекта? Кейси Краунхарт
  2. 2 Четыре причины для оптимизма относительно энергопотребления искусственного интеллекта. Автор: Уилл Дуглас Хевен
  3. 3 Влияние ИИ на энергию пока невелико, но то, как мы с ним справляемся, имеет огромное значение. Автор: Самрас и др.

3b39fa6a6b1717e054fac74a48489909 Все, что вам нужно знать об оценке энергопотребления и выбросов ИИ от Джеймса О'Доннелла и Кейси Краунхарта 8ed1b948a21dcafd738fe00c612d56f1 ИИ может сделать нас зависимыми от природного газа на десятилетия вперед. Дэвид Ротман 1754a2f7c4d2013b8da6acd30c71294b Бум центров обработки данных в пустыне, Джеймс Темпл. АВТОРЫ. Редакционная статья. Репортаж: Джеймс О'Доннелл и Кейси Краунхарт. Редактор: Мэт Хонан и Ниалл Фёрт. Редактирование: Линда Ловенталь. Проверка фактов: Майк Оркатт. Технический директор: Дрейк Мартине. Ведущий разработчик: Андре Виторио. Искусство. Художественное руководство: Стефани Арнетт. Иллюстрации: Ник Литтл.

Источник: www.technologyreview.com

✅ Найденные теги: «Мы, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.
Спутник исследует черную дыру в космосе, испускающий световой луч.
Пикачу использует электрический разряд на фоне неба.
Черный углеродное волокно с текстурой плетения, отражающий свет.
Круглый экран с изображением замка и горы, рядом электронная плата.
Код на экране компьютера, программирование, интерфейс разработчика.
Статистика использования видеокарт NVIDIA RTX, показывающая изменения за октябрь-февраль.
Макросъемка клетки под микроскопом, текстура и форма на голубом фоне.
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых