プロナビ
ニュース
» 2023年12月07日 12時45分 公開

AMDが新型GPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表 「NVIDIA H100」よりも強い?

AMDが、投入を予告していたGPUアクセラレータ「Instinct MI300シリーズ」の詳細情報を公表した。「NVIDIA H100」のSMX5ボード版と比べると、ほぼ同じか上回るパフォーマンスを発揮できるという。

[井上翔ITmedia]

 AMDは12月6日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)/データセンター向けのGPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表した。搭載する製品は、2024年初頭から登場する予定だ。

Instinct MI300シリーズ AMDがInstinct MI300シリーズの詳細を発表

Instinct MI300シリーズの概要

 Instinct MI300シリーズは、AMDのGPUアクセラレータ「Instinct MI」の最新モデルで、最新の「CDNA 3アーキテクチャ」のGPUコアを搭載している。先代の「Instinct MI200シリーズ」と比べると、演算ユニット(CU)は最大約40%増加し、対応するメモリ容量は最大1.5倍となり、メモリ帯域幅(ピーク時)は最大1.7倍となっている。

 ラインアップは、CPUコアも備えるAPU「Instinct MI300A」、PCI Express 5.0接続のOAMモジュールとして提供される「Instinct MI300X」、Instinct MI300Xを8基まとめて搭載した「Instinct MI300X Platform」の3種類が用意される。

Instinct MI300A

 Instinct MI300Aは、24基の「Zen 4アーキテクチャ」CPUコアと、128GBのHBM3メモリ(第4世代広帯域メモリ)を統合したAPUだ。対応ソケットは「Socket SH5」で、TDP(熱設計電力)は550W(ピーク時で760W)に設定されている。

Instinct MI300A Instinct MI300Aは、CPUコアも必要な場合(≒ワンチップでAI/HPC向けサーバを構築したい場合)に最適な製品だ

 GPUコア部の主なスペックは以下の通りだ(演算性能はピーク値、以下同)。

  • CU:228基
  • ストリームプロセッサ(SM):1万4592基
  • FP16(半精度浮動小数点数)演算性能:980.6TFLOPS
  • FP32(単精度浮動小数点数)演算性能:122.6TFLOPS
  • FP64(倍精度浮動小数点数)演算性能:61.3TFLOPS
  • INT8(8バイト整数)演算性能:1.96POPS
  • bfloat16 (ブレイン浮動小数点) 演算性能:980.6TFLOPS

 AMDによると、FP32の演算性能は先代の「Instinct MI250X」比で最大2.6倍になるという。AIの処理性能は「NVIDIA H100」(SMX5ボード、以下同)とおおむね同等で、HPC向け演算は内容によって最大1.8倍のピーク性能を確保しているという。

AIパフォーマンス AI処理のパフォーマンスは、NVIDIA H100とおおむね同等
演算 HPC向けの演算では、内容によってNVIDIA H100比で最大1.8倍の演算パフォーマンスを備える

Instinct MI300X

 Instinct MI300Xは、OAMモジュールとして提供される。192GBのHBM3メモリを備え、「生成AIやHPCアプリケーションで先頭に立つパフォーマンス」を実現しているという。

ボード Instinct MI300Xは、OAMモジュールとして提供される

 主なスペックは以下の通りとなる。

  • CU:304基
  • ストリームプロセッサ(SM):1万9456基
  • FP16(半精度浮動小数点数)演算性能:1.3PFLOPS
  • FP32(単精度浮動小数点数)演算性能:163.4TFLOPS
  • FP64(倍精度浮動小数点数)演算性能:81.7TFLOPS
  • INT8(8バイト整数)演算性能:2.6POPS
  • bfloat16 (ブレイン浮動小数点) 演算性能:1.3PFLOPS

 AMDによると、先代の「Instinct MI250」と比べると、AIトレーニングのワークロード(処理作業)パフォーマンスは最大6.8倍(※1)になったという。また、NVIDIA H100と比較した場合、AI処理性能は最大1.3倍、HPC向け演算は内容によって最大2.4倍のパフォーマンスを発揮できるという。

AIパフォーマンス AI処理のパフォーマンスは、NVIDIA H100の最大1.3倍
演算 HPC向けの演算では、内容によってNVIDIA H100比で最大2.4倍の演算パフォーマンスを備える

Instinct MI300X Platform

 Instinct MI300X Platformは、先述の通りInstinct MI300Xを8基搭載したもので、カード間の接続にはAMDの「第4世代Infinity Fabric」が使われるという。

 フォームファクターは「OCP(Open Compute Project)」の規格に準拠しており、既存のOCPラックに収納することも可能なので「低コストでAI/HPCのパフォーマンスを向上できる」選択肢として展開されるようだ。

Instinct MI300X Platform Instinct MI300X Platformは、Instinct MI300Xを8枚連結したモジュールだ。OCP準拠のフォームファクターを採用しているので、同規格のサーバラックに収納しやすい

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー