Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыEarnПлощадкаПодробнее
Грядущая система чипов для инференса от Nvidia интегрирует технологию "языкового процессорного блока" (LPU) от Groq, использует архитектуру, кардинально отличающуюся от традиционных GPU, и оптимизирована для устранения задержек и узких мест пропускной способности памяти при инференсе больших моделей за счёт более широкой интеграции SRAM и технологии 3D-стекинга.

Грядущая система чипов для инференса от Nvidia интегрирует технологию "языкового процессорного блока" (LPU) от Groq, использует архитектуру, кардинально отличающуюся от традиционных GPU, и оптимизирована для устранения задержек и узких мест пропускной способности памяти при инференсе больших моделей за счёт более широкой интеграции SRAM и технологии 3D-стекинга.

老虎证券老虎证券2026/02/28 04:09
Показать оригинал
Данный новый продукт, возможно, основан на архитектуре следующего поколения Feynman, что позволит значительно снизить энергопотребление и стоимость работы AI-агентов. OpenAI обязалась закупить и инвестировать 30 миллиардов долларов. Nvidia планирует представить на следующем месяце на конференции разработчиков GTC новый чип для инференса, интегрирующий технологию Groq "Language Processing Unit" (LPU), что свидетельствует о стремительном переходе Nvidia в сферу инференс-вычислений для удовлетворения растущего спроса клиентов на высокоэффективные и недорогие вычислительные решения. По данным Wall Street Journal, эта новая система, которую генеральный директор Nvidia Дженсен Хуанг назвал "чем-то, чего мир еще не видел", специально разработана для ускорения отклика AI-моделей на запросы. Ожидается, что запуск этого продукта радикально изменит существующий ландшафт рынка AI-вычислительных мощностей, напрямую повлияв на облачных провайдеров и корпоративных инвесторов, ищущих более экономичные альтернативы. В качестве важного признака предварительного признания технологии рынком, OpenAI, разработчик ChatGPT, уже согласилась стать одним из крупнейших клиентов нового процессора и объявила о намерении закупить у Nvidia крупные объемы "выделенной инференс-мощности". Этот шаг не только укрепил базу ключевых клиентов Nvidia, но и послал рынку четкий сигнал: инфраструктура для поддержки автономных AI-агентов смещается от масштабного предварительного обучения к эффективному инференсу. Столкнувшись с жесткой конкуренцией со стороны определенной биржи и множества стартапов, Nvidia выходит за рамки традиционной зависимости от графических процессоров (GPU). Внедряя новые архитектурные решения и исследуя модели развертывания на чистых центральных процессорах (CPU), компания стремится сохранить свое доминирующее положение на следующем этапе развития AI-индустрии. Интеграция LPU-дизайна: устранение узких мест инференса больших моделей По мере того как AI-индустрия смещается от обучения моделей к их практическому внедрению, инференс-вычисления становятся ключевым фокусом. AI-инференс делится на два этапа: pre-fill (предварительное заполнение) и decode (декодирование), причем декодирование в больших AI-моделях особенно медленно. Для преодоления этого технологического узкого места Nvidia решила интегрировать внешние технологии, чтобы выйти за пределы физических ограничений. По данным Wall Street Journal, в конце прошлого года Nvidia потратила 20 миллиардов долларов на получение лицензии на ключевые технологии стартапа Groq и в рамках крупной сделки по "ядровому найму" привлекла команду топ-менеджеров во главе с основателем Джонатаном Россом. Разработанный Groq "Language Processing Unit" (LPU) использует архитектуру, кардинально отличающуюся от традиционных GPU, и демонстрирует чрезвычайно высокую эффективность при выполнении инференс-задач. По мнению отраслевых аналитиков, предстоящий новый продукт может быть основан на революционной архитектуре следующего поколения Feynman. Как ранее сообщал Wall Street News, архитектура Feynman, возможно, будет использовать более широкую интеграцию SRAM и даже глубокую интеграцию LPU с помощью 3D-стековых технологий, специально оптимизированных для устранения двух основных узких мест инференса — задержки и пропускной способности памяти, что позволит значительно снизить энергопотребление и стоимость работы AI-агентов. Расширение чистых CPU-развертываний: предоставление разнообразных вычислительных опций Наряду с внедрением LPU-архитектуры Nvidia гибко корректирует способы использования своих традиционных процессоров. Ранее стандартной практикой Nvidia было объединение CPU Vera с мощными GPU Rubin в серверных решениях для дата-центров, однако для некоторых специфических AI-агентных задач такая конфигурация оказалась слишком дорогой и недостаточно энергоэффективной. Крупные корпоративные клиенты обнаружили, что в ряде случаев чистая CPU-среда обеспечивает большую эффективность при выполнении определенных AI-задач. Следуя этой тенденции, Nvidia в этом месяце объявила о расширении сотрудничества с Meta Platforms, впервые осуществив крупномасштабное развертывание на чистых CPU для поддержки AI-агентов, отвечающих за таргетинг рекламы Meta. Рынок рассматривает это сотрудничество как ранний признак стратегической корректировки Nvidia, свидетельствующий о том, что компания выходит за рамки единственной модели продаж GPU и стремится закрепиться в различных сегментах AI-рынка за счет диверсифицированных аппаратных решений. Смена рыночного спроса и обострение конкуренции Эволюция базовых аппаратных решений напрямую обусловлена взрывным ростом спроса на AI-агентные приложения в технологической отрасли. Многие компании, разрабатывающие и эксплуатирующие AI-агентов, обнаружили, что традиционные GPU слишком дороги и не всегда являются оптимальным выбором для реального запуска моделей. Действия OpenAI подчеркивают эту тенденцию. Помимо обязательства закупить новую систему Nvidia для улучшения быстрорастущего инструмента Codex, OpenAI в прошлом месяце заключила многомиллиардное соглашение о вычислениях со стартапом Cerebras. По словам генерального директора Cerebras Эндрю Фельдмана, их чипы, ориентированные на инференс, превосходят GPU Nvidia по скорости. Кроме того, OpenAI подписала крупный контракт на использование чипов Trainium от определенной биржи. Не только стартапы, но и ведущие облачные провайдеры ускоряют разработку собственных чипов. Anthropic Claude Code, широко признанный лидером рынка автоматического кодирования, в настоящее время в основном полагается на чипы, разработанные определенной биржей и дочерней компанией определенной биржи, а не на продукты Nvidia. Столкнувшись с натиском конкурентов, Дженсен Хуанг в интервью wccftech подчеркнул, что Nvidia трансформируется из простого поставщика чипов в создателя полноценной AI-экосистемы, охватывающей полупроводники, дата-центры, облачные решения и приложения. Для инвесторов предстоящая конференция GTC в следующем месяце станет ключевым моментом для оценки, сможет ли Nvidia сохранить свою легендарную 90%-ную долю рынка в эпоху инференса.
0
0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!
© 2026 Bitget