下図は、Instinct MI350シリーズを搭載したノードのシステムダイヤグラムだ。
Instinct MI350シリーズは「OAM(OCP Accelerator Module)」規格のモジュール(カード)として提供される。上図でOAM内にある8つのマスは、1個あたりのXCDをイメージしている。
OAM同士はInfinty Fabricでフルメッシュ相互接続されており、各OAMはPCI Express 5.0バスを介してAMDのCPU「EPYC 9000シリーズ」と接続される。
次の図は、Instinct MI350シリーズをラックサーバシステムとして構成した場合の例だ。Instinct MI350Xは、120kWまたは130kWの54Uラックなら最大8台、200kWラックなら最大16台搭載できる。
AMDはInstinct MI350シリーズを2025年第3四半期(7〜9月)から出荷する予定だという。その絶対性能の高さはもちろんだが、NVIDIAのBlackwellアーキテクチャGPU(NVIDIA B200)と比べて価格対性能(コストパフォーマンス)において最大40%も優れていることをアピールしていた。
このポイントは、AI向けGPUサーバの新規導入を検討している層から魅力的に映るのは間違いない。
AI自体の進化ペースが異様に早いこともあり、AI処理に使われるGPUでは“継続的な”新製品の投入が望まれる状況にある。競合のNVIDIAも、近年は数世代先まで新モデルの予告を行うようになった。
もちろん、AMDも今回のイベントにおいて今後のInstinct MIシリーズのロードマップを予告した。具体的には、2026年には「Instinct MI400シリーズ」、翌2027年には「Instinct MI500シリーズ」が登場予定だという。アーキテクチャ名ではなく製品名を出してくるあたり、その開発が順調であるというアピールだ。
特に2026年に登場する予定のInstinct MI400シリーズは具体的な目標性能値の引き上げを実施しており、NVIDIAの次世代GPU「Rubin」と同等以上の理論性能を有し、1モジュール当たりのグラフィックスメモリ容量は432GB(MI350シリーズの1.5倍)、メモリ帯域は毎秒19.6TB(MI350シリーズの約2.5倍)になるという。
筆者が個人的に注目したのは、Instinct MI400シリーズのラックシステムのサイズだ。従来の2倍広くなっており、昨今の「高密度コンパクト化」の流れからは逆行しているように思える。
あえて“拡張”する方向の設計としているのは、製造プロセスの微細化がかつてないほどに鈍化している現状にあってもなお、より高い性能を求め続けるAIサーバ市場を考えるとそうせざるを得ないのだろう。言い換えると今後、性能向上を重視したコンピュータシステムを構築するには、「フットプリント」よりも「高帯域/大容量」を優先した設計にならざるをえないのだ。
以前は「CPUサーバと比較して、GPUサーバーは○倍も高性能で、こんなに省スペースで省電力!」なんていう売り文句もよく見かけたが、このキラーメッセージの後半部分は徐々に影を潜めつつある。果たして、今後はどのような売り文句になっていくのだろうか……?
AMDが掲げるInstinct MI400シリーズの目標性能をイメージにしたもの。昨今のAMDのエンジニアリングパワーを鑑みれば、この目標は達成できると思われるが消費電力(+発熱)と物理体積はどの程度になるのか――ここにも注目していきたい
AMDのデータセンター向けGPU「Instinct MI350シリーズ」って? 歴史と構造、シリコンなどをチェック!
AMDが「Instinct MI350シリーズ」を2025年第3四半期に出荷開始 275台以上のラックシステムを2030年までに“1台”にまとめる計画も
AMDのGPUアクセラレーター「Instinct」のロードマップを公表 「Insinct MI350X」は2025年内に登場
AMDが新型GPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表 「NVIDIA H100」よりも強い?
AMD、HPC向けのGPUアクセラレーター「AMD Instinct MI200」シリーズを発表 業界初のマルチダイGPU構成を採用Copyright © ITmedia, Inc. All Rights Reserved.