Сообщается, что Google ведет переговоры о продаже своих тензорных процессоров (типа компьютерных чипов, специально разработанных для искусственного интеллекта) другим технологическим компаниям. Этот шаг может нарушить позиции доминирующего производителя чипов Nvidia.
Ironwood — новейший тензорный процессор Google.
Позиция Nvidia как доминирующего поставщика ИИ-чипов может оказаться под угрозой из-за специализированного чипа, впервые созданного Google. По сообщениям, такие компании, как Meta и Anthropic, планируют потратить миллиарды долларов на тензорные процессоры Google.
Что такое ТПУ?
Успех отрасли искусственного интеллекта во многом обусловлен графическими процессорами (GPU) — разновидностью компьютерных микросхем, способных выполнять множество параллельных вычислений одновременно, а не одно за другим, как компьютерные процессоры (CPU), на которых работает большинство компьютеров.
Реклама
Графические процессоры изначально разрабатывались для работы с компьютерной графикой, как следует из названия, и для игр. «Если у меня в пространстве много пикселей, и мне нужно повернуть их, чтобы рассчитать новый угол обзора камеры, эту операцию можно выполнять параллельно для множества разных пикселей», — говорит Франческо Конти из Болонского университета в Италии.
Эта возможность параллельных вычислений оказалась полезной для обучения и запуска моделей ИИ, которые часто используют вычисления с использованием обширных сеток чисел, выполняемые одновременно, что называется умножением матриц. «Графические процессоры — очень общая архитектура, но они идеально подходят для приложений, требующих высокой степени параллелизма», — говорит Конти.
Однако, поскольку изначально они не разрабатывались с учётом ИИ, графические процессоры могут неэффективно обрабатывать вычисления, выполняемые на чипах. Тензорные процессоры (TPU), изначально разработанные Google в 2016 году, по словам Конти, предназначены исключительно для умножения матриц, которое является основными вычислениями, необходимыми для обучения и запуска крупных моделей ИИ.

В этом году Google выпустила седьмое поколение своего TPU под названием Ironwood, на котором работают многие модели искусственного интеллекта компании, такие как Gemini и AlphaFold для моделирования белков.
Являются ли TPU намного более эффективными, чем GPU для ИИ?
С технологической точки зрения, TPU — это скорее подмножество графических процессоров, чем совершенно отдельный чип, говорит Саймон Макинтош-Смит из Бристольского университета (Великобритания). «Они фокусируются на функциях графических процессоров, которые в большей степени направлены на обучение и вывод данных для ИИ, но на самом деле они в некотором смысле больше похожи на графические процессоры, чем можно подумать». Но поскольку TPU разработаны с учётом определённых задач ИИ, они могут быть гораздо эффективнее для этих задач и потенциально экономить десятки, а то и сотни миллионов долларов, говорит он.
Однако такая специализация имеет и свои недостатки: она может сделать TPU негибкими, если модели ИИ существенно меняются от поколения к поколению, говорит Конти. «Если ваш [TPU] не обладает достаточной гибкостью, вам придётся выполнять [вычисления] на центральном процессоре узла в центре обработки данных, и это значительно замедлит работу», — говорит Конти.
Одно из традиционных преимуществ графических процессоров Nvidia заключается в наличии простого программного обеспечения, которое позволяет разработчикам ИИ запускать свой код на чипах Nvidia. Когда впервые появились TPU, этого не было, но сейчас эти чипы находятся на этапе, когда их использование стало проще, говорит Конти. «С TPU теперь можно делать то же самое [что и с графическими процессорами]», — говорит он. «Теперь, когда это стало возможным, очевидно, что доступность становится важнейшим фактором».
Кто строит ТПУ?
Хотя первой запустила TPU компания Google, многие крупнейшие компании в сфере ИИ (известные как гиперскейлеры), а также небольшие стартапы теперь начали разрабатывать собственные специализированные TPU, включая Amazon, которая использует собственные чипы Trainium для обучения своих моделей ИИ.
«У большинства гиперскейлеров есть собственные внутренние программы, и это отчасти связано с тем, что графические процессоры стали такими дорогими из-за того, что спрос превышал предложение, и, возможно, дешевле было бы спроектировать и собрать их самостоятельно», — говорит Макинтош-Смит.
Как TPU повлияют на отрасль ИИ?
Google разрабатывает свои TPU уже более десяти лет, но до сих пор использовала эти чипы в основном для собственных моделей искусственного интеллекта. Похоже, ситуация меняется: другие крупные компании, такие как Meta и Anthropic, активно закупают вычислительную мощность TPU Google. «Мы пока не слышали о переходе крупных клиентов, и, возможно, именно это сейчас и начинает происходить», — говорит Макинтош-Смит. «Они уже достаточно созрели, и их достаточно».
По его словам, диверсификация не только создаёт более широкий выбор для крупных компаний, но и может быть для них финансово выгодна. «Возможно, это даже означает, что в будущем вы получите от Nvidia более выгодные условия», — добавляет он.
Источник: www.newscientist.com























