AMDは12月6日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)/データセンター向けのGPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表した。搭載する製品は、2024年初頭から登場する予定だ。
Instinct MI300シリーズは、AMDのGPUアクセラレータ「Instinct MI」の最新モデルで、最新の「CDNA 3アーキテクチャ」のGPUコアを搭載している。先代の「Instinct MI200シリーズ」と比べると、演算ユニット(CU)は最大約40%増加し、対応するメモリ容量は最大1.5倍となり、メモリ帯域幅(ピーク時)は最大1.7倍となっている。
ラインアップは、CPUコアも備えるAPU「Instinct MI300A」、PCI Express 5.0接続のOAMモジュールとして提供される「Instinct MI300X」、Instinct MI300Xを8基まとめて搭載した「Instinct MI300X Platform」の3種類が用意される。
Instinct MI300Aは、24基の「Zen 4アーキテクチャ」CPUコアと、128GBのHBM3メモリ(第4世代広帯域メモリ)を統合したAPUだ。対応ソケットは「Socket SH5」で、TDP(熱設計電力)は550W(ピーク時で760W)に設定されている。
GPUコア部の主なスペックは以下の通りだ(演算性能はピーク値、以下同)。
AMDによると、FP32の演算性能は先代の「Instinct MI250X」比で最大2.6倍になるという。AIの処理性能は「NVIDIA H100」(SMX5ボード、以下同)とおおむね同等で、HPC向け演算は内容によって最大1.8倍のピーク性能を確保しているという。
Instinct MI300Xは、OAMモジュールとして提供される。192GBのHBM3メモリを備え、「生成AIやHPCアプリケーションで先頭に立つパフォーマンス」を実現しているという。
主なスペックは以下の通りとなる。
AMDによると、先代の「Instinct MI250」と比べると、AIトレーニングのワークロード(処理作業)パフォーマンスは最大6.8倍(※1)になったという。また、NVIDIA H100と比較した場合、AI処理性能は最大1.3倍、HPC向け演算は内容によって最大2.4倍のパフォーマンスを発揮できるという。
Instinct MI300X Platformは、先述の通りInstinct MI300Xを8基搭載したもので、カード間の接続にはAMDの「第4世代Infinity Fabric」が使われるという。
フォームファクターは「OCP(Open Compute Project)」の規格に準拠しており、既存のOCPラックに収納することも可能なので「低コストでAI/HPCのパフォーマンスを向上できる」選択肢として展開されるようだ。
Copyright © ITmedia, Inc. All Rights Reserved.