ITmedia NEWS > 製品動向 >
ITmedia AI+ AI活用のいまが分かる

NVIDIA、推論特化チップ「Groq 3 LPU」発表 「Vera Rubin」と組み合わせてAI性能最大35倍にGTC 2026

» 2026年03月17日 09時00分 公開
[ITmedia]

 米NVIDIAは3月16日(現地時間)、年次イベント「GTC 2026」で、次世代のAIインフラプラットフォーム「NVIDIA Vera Rubin」の本格的な量産体制に入ったと発表した。新たにAI推論に特化したチップをファミリーに統合、搭載製品はパートナー各社から2026年後半での提供を予定する。

NVIDIAのジェンスン・フアンCEO

 Vera Rubinは、GPU「Rubin」、CPU「Vera」、「NVLink 6」スイッチ、SuperNIC「ConnectX-9」、DPU「BlueField-4」、Ethernetスイッチ「Spectrum-6」に、今回新たに統合されたLPU(Language Processing Unit、言語処理ユニット)の「Groq 3 LPU」を加えた7チップで構成される。これらを搭載する5種のラックが1台のAIスーパーコンピュータとして機能する設計だ。

最新AIスパコン「Vera Rubin」は7つのチップ、5つのラックで構成される

 メインの「Vera Rubin NVL72」ラックは、72基のRubin GPUと36基のVera CPUをNVLink 6で接続し、ConnectX-9 SuperNIC、およびBlueField-4 DPUを統合。MoEアーキテクチャモデルのトレーニングは先代「Blackwell」の4分の1のGPU数で対応でき、推論スループットはワットあたり最大10倍、トークンあたりのコストは10分の1になるとしている。

 エージェンティックAIの強化学習環境を担う「Vera CPUラック」は256基のVeraを搭載する。VeraはNVIDIAが自社設計したCPUで、Armベースの「Olympusコア」を88基搭載。従来のものと比べて処理効率は2倍、50%高速化しているほか、1コアで2つのタスクを実行できる。メモリはLPDDR5Xで、最大1.2TBの帯域幅を実現するという。

「Groq 3 LPU」の威力

 Groq 3 LPUは、NVIDIAが2025年12月に締結を発表した、AIアクセラレーターを手掛けるスタートアップ米Groqとの非独占ライセンスにより実現したもの。1チップあたりの演算性能は1.2PFLOPs(FP8)で、500MBのSRAMを内蔵。メモリ帯域は150TB/sを実現する。なお、GPUのRubinは、288GBという大容量のHBM4メモリを搭載し、メモリ帯域は22TB/s、50PFLOPsの演算性能を持つ。

Groqのライセンスにより実現した「Groq 3 LPU」チップ(右)

 今回新たに加わった「Groq 3 LPXラック」は、256基のGroq 3 LPUを接続することで128GBのオンチップSRAMと、40PB/sのメモリ帯域幅を実現。Vera Rubin NVL72と組み合わせることで、メガワットあたりの推論スループットは旧モデルのBlackwellと比べて最大35倍に上るとしており、兆パラメータ規模のモデルと最大100万トークンのコンテキスト処理に最適化されているという。

Groq 3 LPUが敷き詰められたラック「Groq 3 LPX」
Groq 3 LPU
メガワットあたりの推論スループット
Vera RubinにGroq 3 LPUを組み合わせるとスループットが最大35倍に
これによりAIベンダーの収益機会にもつながるとしている

 AWS、Google Cloud、Microsoft Azure、Oracle Cloud InfrastructureなどがVera Rubinベースの製品を今年後半に提供する計画。Anthropic、Meta、Mistral AI、OpenAIもVera Rubinの採用を検討しているとしている。Dell Technologies、HPE、Lenovo、Supermicroなど主要システムメーカーもサーバ製品の提供を予定する。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

あなたにおすすめの記事PR