Майкл Нуньес

В понедельник компания Nvidia представила Vera Rubin, новую масштабную вычислительную платформу, построенную на базе семи чипов, которые уже находятся в серийном производстве, и поддерживаемую выдающимся списком клиентов, в который входят Anthropic, OpenAI, Meta и Mistral AI, а также все основные поставщики облачных услуг.
Послание индустрии искусственного интеллекта и инвесторам было недвусмысленным: Nvidia не собирается сбавлять обороты. Платформа Vera Rubin, по утверждению производителя, обеспечивает до 10 раз большую пропускную способность на ватт и в десять раз меньшую стоимость за токен по сравнению с системами Blackwell, поставки которых начались совсем недавно. Генеральный директор Дженсен Хуанг, выступая на ежегодной конференции GTC, назвал это «скачком в развитии поколений», который положит начало «величайшему развитию инфраструктуры в истории». Платформу будут предлагать Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, а более 80 партнеров-производителей создают на её основе системы.
«Vera Rubin — это прорыв поколения: семь революционных чипов, пять стоек, один гигантский суперкомпьютер — созданный для обеспечения работы всех этапов развития ИИ», — заявил Хуанг. «Переломный момент в развитии агентного ИИ наступил с запуском Vera Rubin, положившей начало крупнейшему в истории созданию инфраструктуры».
В любой другой отрасли подобная риторика могла бы быть воспринята как показное выступление. Но Nvidia занимает уникальное положение в мировой экономике — компания, чья продукция стала настолько важной для бума искусственного интеллекта, что ее рыночная капитализация теперь сопоставима с ВВП средних стран. Когда Хуанг говорит, что развитие инфраструктуры — историческое событие, генеральные директора компаний, непосредственно выписывающих чеки, стоят позади него и кивают.
Дарио Амодей, генеральный директор Anthropic, заявил, что платформа Nvidia «предоставляет нам вычислительные мощности, сетевые возможности и системный дизайн, позволяющие продолжать работу, одновременно повышая безопасность и надежность, на которые полагаются наши клиенты». Сэм Альтман, генеральный директор OpenAI, сказал: «С Nvidia Vera Rubin мы сможем запускать более мощные модели и агентов в огромных масштабах и предоставлять более быстрые и надежные системы сотням миллионов людей».
Внутри семичиповой архитектуры, разработанной для обеспечения работы агентов искусственного интеллекта в эпоху эры
Платформа Vera Rubin объединяет процессор Nvidia Vera, графический процессор Rubin, коммутатор NVLink 6, сетевую карту ConnectX-9 SuperNIC, процессор обработки данных BlueField-4, коммутатор Ethernet Spectrum-6 и недавно интегрированный LPU Groq 3 — специализированный ускоритель инференции. Nvidia объединила эти компоненты в пять взаимосвязанных стоечных систем, функционирующих как единый суперкомпьютер.
Флагманская стойка NVL72 объединяет 72 графических процессора Rubin и 36 центральных процессоров Vera, соединенных интерфейсом NVLink 6. Nvidia заявляет, что может обучать большие модели, состоящие из множества экспертов, используя в четыре раза меньше графических процессоров, чем требуется на Blackwell. Это утверждение, если оно подтвердится в производственных условиях, коренным образом изменит экономику создания передовых систем искусственного интеллекта.
В стойку Vera CPU помещается 256 процессоров с жидкостным охлаждением, обеспечивая поддержку более 22 500 одновременно работающих процессорных сред — «песочниц», где агенты ИИ выполняют код, проверяют результаты и итерируют процессы. Nvidia описывает процессор Vera как первый процессор, специально разработанный для агентного ИИ и обучения с подкреплением, оснащенный 88 специально разработанными ядрами Olympus и памятью LPDDR5X, обеспечивающей пропускную способность 1,2 терабайта в секунду при вдвое меньшей мощности по сравнению с обычными серверными процессорами.
Стойка Groq 3 LPX, вмещающая 256 процессоров вывода с 128 гигабайтами встроенной SRAM, ориентирована на решение задач с низкой задержкой для моделей с триллионами параметров и контекстами в миллионы токенов. Стойка хранения BlueField-4 STX обеспечивает то, что Nvidia называет «контекстной памятью» — высокоскоростное хранилище для огромных кэшей типа «ключ-значение», которые генерируют агентные системы в процессе выполнения длительных многошаговых задач. А стойка Ethernet Spectrum-6 SPX объединяет все это с помощью интегрированной оптики, обеспечивающей в 5 раз большую оптическую энергоэффективность, чем традиционные трансиверы.
Почему Nvidia делает ставку на автономных агентов искусственного интеллекта в будущем — и перестраивает свою инфраструктуру вокруг них.
Стратегическая логика, объединяющая все объявления в понедельник в единую концепцию, заключается в убеждении Nvidia в том, что индустрия ИИ переступает порог. Эра чат-ботов — ИИ, который реагирует на запрос и останавливается, — уступает место тому, что Хуанг называет «агентным ИИ»: системам, которые автономно рассуждают в течение часов или дней, пишут и выполняют программное обеспечение, вызывают внешние инструменты и постоянно совершенствуются.
Это не просто маркетинговый ход. Это представляет собой подлинный архитектурный сдвиг в том, как должна проектироваться вычислительная инфраструктура. Запрос к чат-боту может занимать миллисекунды времени работы графического процессора. Агентная система, управляющая процессом разработки лекарств или отлаживающая сложный код, может работать непрерывно, потребляя циклы ЦП для выполнения кода, циклы графического процессора для рассуждений и огромные объемы памяти для поддержания контекста на протяжении тысяч промежуточных шагов. Это требует не только более быстрых чипов, но и принципиально иного баланса вычислительных ресурсов, памяти, хранилища и сети.
Компания Nvidia решила эту проблему, выпустив Agent Toolkit, который включает OpenShell — новую среду выполнения с открытым исходным кодом, обеспечивающую безопасность и конфиденциальность для автономных агентов. Список компаний, внедривших его в корпоративную среду, впечатляет: Adobe, Atlassian, Box, Cadence, Cisco, CrowdStrike, Dassault Systèmes, IQVIA, Red Hat, Salesforce, SAP, ServiceNow, Siemens и Synopsys — все они интегрируют этот инструментарий в свои платформы. Nvidia также выпустила NemoClaw — стек с открытым исходным кодом, позволяющий пользователям устанавливать модели Nemotron и среду выполнения OpenShell одной командой для запуска безопасных, постоянно работающих ИИ-помощников на самых разных устройствах, от ноутбуков RTX до суперкомпьютеров DGX Station.
Компания отдельно анонсировала Dynamo 1.0, программное обеспечение с открытым исходным кодом, которое она описывает как первую «операционную систему» для выполнения задач искусственного интеллекта в масштабах заводских предприятий. Dynamo управляет ресурсами графических процессоров и памяти в кластерах и уже используется AWS, Azure, Google Cloud, Oracle, Cursor, Perplexity, PayPal и Pinterest. Nvidia заявляет, что в последних тестах производительность выполнения задач Blackwell увеличилась до 7 раз.
Коалиция Nemotron и стратегия Nvidia по формированию ландшафта искусственного интеллекта с открытым исходным кодом
Если Вера Рубин олицетворяет амбиции Nvidia в области аппаратного обеспечения, то коалиция Nemotron — это её амбиции в области программного обеспечения. Объявленная в понедельник, коалиция представляет собой глобальное сотрудничество лабораторий искусственного интеллекта, которые будут совместно разрабатывать модели открытого уровня, обученные на облачной платформе Nvidia DGX. Первые участники — Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab, стартап, возглавляемый бывшим руководителем OpenAI Мирой Мурати, — предоставят данные, оценочные инструменты и экспертные знания в данной области.
Первая модель будет разработана совместно компаниями Mistral AI и Nvidia и ляжет в основу будущего семейства Nemotron 4. «Открытые модели — это жизненно важный элемент инноваций и двигатель глобального участия в революции искусственного интеллекта», — сказал Хуанг.
Nvidia также значительно расширила свой собственный портфель открытых моделей. Nemotron 3 Ultra обеспечивает, по словам компании, интеллектуальный уровень, в 5 раз превышающий пропускную способность Blackwell. Nemotron 3 Omni объединяет аудио, видео и понимание языка. Nemotron 3 VoiceChat поддерживает одновременные разговоры в режиме реального времени. Кроме того, компания представила GR00T N2, базовую модель робота следующего поколения, которая, по ее словам, помогает роботам успешно справляться с новыми задачами в новых условиях более чем в два раза чаще, чем ведущие альтернативы, и в настоящее время занимает первое место в бенчмарках MolmoSpaces и RoboArena.
Стремление к открытой модели преследует двойную цель. Оно способствует развитию экосистемы разработчиков, которая стимулирует спрос на оборудование Nvidia, и позиционирует Nvidia как нейтрального поставщика платформ, а не как конкурента лабораториям искусственного интеллекта, разрабатывающим решения на основе её чипов — тонкий баланс, который становится всё сложнее по мере развития собственных моделей Nvidia.
От операционных до орбиты: как влияние Веры Рубин простирается далеко за пределы центров обработки данных.
Масштаб представленных в понедельник объявлений был почти дезориентирующим. Компания Roche сообщила о развертывании более 3500 графических процессоров Blackwell в гибридных облачных и локальных средах в США и Европе — это крупнейшее объявленное использование графических процессоров в фармацевтической отрасли. Компания использует эту инфраструктуру для создания базовых биологических моделей, разработки лекарств и цифровых двойников производственных мощностей, включая свой новый завод GLP-1 в Северной Каролине. По данным Roche, почти 90 процентов программ Genentech по разработке малых молекул теперь интегрируют ИИ, при этом разработка одной онкологической молекулы происходит на 25 процентов быстрее, а резервный кандидат поставляется за семь месяцев вместо более чем двух лет.
В сфере автономных транспортных средств BYD, Geely, Isuzu и Nissan создают автомобили, готовые к 4-му уровню автономности, на платформе Nvidia Drive Hyperion. Nvidia и Uber расширили свое партнерство, планируя запустить автономные транспортные средства в 28 городах на четырех континентах к 2028 году, начиная с Лос-Анджелеса и Сан-Франциско в первой половине 2027 года. Компания представила Alpamayo 1.5, модель логического мышления для автономного вождения, которую уже скачали более 100 000 разработчиков автомобильных приложений, и Nvidia Halos OS, архитектуру безопасности, построенную на основе сертифицированных по стандарту ASIL D компонентов для автономного вождения серийного производства.
Компания Nvidia также выпустила первую специализированную платформу физического искусственного интеллекта для медицинской робототехники, основанную на Open-H — крупнейшем в мире наборе данных по медицинской робототехнике, содержащем более 700 часов хирургических видеозаписей. Среди компаний, внедривших эту платформу, — CMR Surgical, Johnson & Johnson MedTech и Medtronic.
А затем настала космическая эра. Космический модуль Vera Rubin обеспечивает до 25 раз большую вычислительную мощность для ИИ-анализа орбит по сравнению с графическим процессором H100. На его основе работают Aetherflux, Axiom Space, Kepler Communications, Planet Labs и Starcloud. «Космические вычисления, последний рубеж, уже здесь», — сказал Хуанг, произнеся фразу, которая от другого руководителя могла бы вызвать закатывание глаз, но от генерального директора компании, чьи чипы уже обеспечивают работу большинства мировых задач ИИ, это воспринимается иначе.
Настольный суперкомпьютер и незаметное продвижение Nvidia на рынок корпоративного оборудования.
На фоне зрелища моделей с триллионами параметров и орбитальных центров обработки данных компания Nvidia сделала более тихий, но потенциально значимый шаг: она выпустила DGX Station, настольную систему на базе настольного процессора GB300 Grace Blackwell Ultra, обеспечивающего 748 гигабайт когерентной памяти и вычислительную производительность в области искусственного интеллекта до 20 петафлопс. Система может запускать открытые модели с количеством параметров до одного триллиона прямо с рабочего стола.
Среди первых пользователей — Snowflake, Microsoft Research, Корнелльский университет, EPRI и Университет Сонгюнкван. DGX Station поддерживает конфигурации с изолированной сетью для регулируемых отраслей, а приложения, созданные на её основе, беспрепятственно переносятся в системы центров обработки данных Nvidia без перепроектирования — это проектное решение, обеспечивающее естественный переход от локальных экспериментов к крупномасштабному развертыванию.
Компания Nvidia также обновила DGX Spark, свою более компактную систему, добавив поддержку объединения до четырех устройств в «центр обработки данных для настольных компьютеров» с линейным масштабированием производительности. Обе системы поставляются с предустановленными NemoClaw и программным обеспечением Nvidia AI и поддерживают такие модели, как Nemotron 3, Google Gemma 3, Qwen3, DeepSeek V3.2, Mistral Large 3 и другие.
Компании Adobe и Nvidia отдельно объявили о стратегическом партнерстве по разработке моделей Firefly следующего поколения с использованием вычислительных технологий и библиотек Nvidia. Adobe также создаст облачное решение для создания 3D-цифровых двойников для маркетинга на платформе Nvidia Omniverse и интегрирует возможности Nemotron в Adobe Acrobat. Партнерство охватывает такие инструменты для творчества, как Photoshop, Premiere Pro, Frame.io и Adobe Experience Platform.
Создание заводов по производству интеллекта: план Nvidia по развитию инфраструктуры искусственного интеллекта
Пожалуй, наиболее показательным индикатором того, куда, по мнению Nvidia, движется индустрия, является эталонный проект Vera Rubin DSX AI Factory — по сути, чертеж для строительства целых зданий, оптимизированных для производства искусственного интеллекта. Эталонный проект описывает, как интегрировать вычислительные ресурсы, сети, хранилище данных, электропитание и охлаждение в систему, которая максимизирует то, что Nvidia называет «токенами на ватт», а также содержит Omniverse DSX Blueprint для создания цифровых двойников этих объектов до их строительства.
Программный комплекс включает в себя DSX Max-Q для динамического распределения электроэнергии — по словам Nvidia, это позволяет увеличить мощность инфраструктуры ИИ на 30 процентов в центрах обработки данных с фиксированным электропитанием — и DSX Flex, который подключает фабрики ИИ к услугам электросети, чтобы, по оценкам компании, высвободить 100 гигаватт неиспользуемой мощности сети. Лидеры энергетической отрасли Emerald AI, GE Vernova, Hitachi и Siemens Energy используют эту архитектуру. Nscale и Caterpillar строят одну из крупнейших в мире фабрик ИИ в Западной Вирджинии, используя эталонный проект Vera Rubin.
Партнеры из отрасли, такие как Cadence, Dassault Systèmes, Eaton, Jacobs, Schneider Electric, Siemens, PTC, Switch, Trane Technologies и Vertiv, предоставляют готовые к моделированию ресурсы и интегрируют свои платформы. CoreWeave использует Nvidia DSX Air для проведения оперативных репетиций фабрик ИИ в облаке перед их физической поставкой.
«В эпоху ИИ токены интеллекта — это новая валюта, а фабрики ИИ — это инфраструктура, которая их генерирует», — сказал Хуанг. Такая формулировка — токены как валюта, фабрики как монетные дворы — показывает, как Nvidia осмысливает свое место в формирующемся экономическом порядке.
Что в грандиозном плане Nvidia реализовано правильно, а что еще не доказано.
Масштаб и согласованность заявлений, сделанных в понедельник, действительно впечатляют. Ни одна другая компания в полупроводниковой отрасли — и, пожалуй, ни одна другая технологическая компания вообще — не может представить интегрированный комплекс решений, охватывающий заказные микросхемы, системную архитектуру, сети, хранилища данных, программное обеспечение для обработки данных, открытые модели, агентные фреймворки, среды выполнения для обеспечения безопасности, платформы моделирования, инфраструктуру цифровых двойников и вертикальные приложения от разработки лекарств до автономного вождения и орбитальных вычислений.
Однако масштаб и согласованность — это не то же самое, что неизбежность. Заявленные характеристики Vera Rubin, хотя и впечатляющие, в значительной степени не подтверждены независимыми тестами. Теория агентного ИИ, лежащая в основе всей платформы — идея о том, что автономные, долго работающие агенты ИИ станут доминирующей вычислительной нагрузкой — это ставка на будущее, которое еще не полностью материализовалось. А расширяющаяся роль Nvidia как поставщика моделей, программного обеспечения и эталонных архитектур поднимает вопросы о том, как долго ее клиенты, использующие оборудование, будут чувствовать себя комфортно, так сильно завися от одного поставщика на столь многих уровнях своей инфраструктуры.
Конкуренты не стоят на месте. AMD продолжает сокращать отставание в производительности графических процессоров для центров обработки данных. TPU от Google обеспечивают работу одних из самых масштабных в мире процессов обучения ИИ. Чипы Trainium от Amazon набирают популярность в AWS. И все большее число стартапов берется за различные компоненты инфраструктуры ИИ.
Однако ни один из них не появился на конференции GTC в понедельник с одобрением генеральных директоров Anthropic и OpenAI. Ни один из них не анонсировал одновременно семь новых чипов, находящихся в полномасштабном производстве. И ни один из них не представил столь всеобъемлющего видения того, что нас ждет в будущем.
На каждом GTC повторяется одна и та же сцена: Хуан, в своей фирменной кожаной куртке, держит чип так, как ювелир держит бриллиант, медленно вращая его под светом софитов. Это отчасти показуха, отчасти проповедь. Но число участников продолжает расти, чипы становятся всё быстрее, а чеки — всё больше. В конечном итоге, вопрос о том, строит ли Nvidia величайшую инфраструктуру в истории или просто самую прибыльную, может оказаться всего лишь различием, не имеющим значения.
Подпишитесь, чтобы получать самые свежие новости!
Подробные аналитические данные для руководителей предприятий в области искусственного интеллекта, данных и безопасности.
Отправляя свой адрес электронной почты, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности.
Получайте обновления ! Вы подписаны! Наши последние новости скоро поступят на вашу электронную почту.
Источник: venturebeat.com





















