プロナビ

AMDのGPUアクセラレーター「Instinct」のロードマップを公表 「Insinct MI350X」は2025年内に登場COMPUTEX TAIPEI 2024

» 2024年06月03日 12時15分 公開
[井上翔ITmedia]

 AMDは6月3日(台湾時間)、AI(人工知能)/HPC(ハイパフォーマンスコンピューティング)向けGPUアクセラレーター「AMD Instinctシリーズ」のロードマップを披露した。2024年第4四半期に「Instinct MI325X」を投入する他、2025年内に新アーキテクチャの「Instinct MI350シリーズ」を、2026年内にさらに新しいアーキテクチャの「Instinct MI400シリーズ」を投入する予定だという。

ロードマップ Instinctシリーズの2026年までのロードマップ

Instinct MI325Xの概要

 Instinct MI325Xは、2023年12月にリリースされた「Instinct MI300シリーズ」のうち、OAMモジュールとして提供される「Instinct MI300X」を改良したモデルとなる。本モジュールは

Instinct MI325X Instinct MI325X

 主な改良点は以下の通りだ。

  • メモリモジュールの高速化(HBM3→HBM3E)
  • メモリの増量(最大192GB→最大288GB)
  • メモリアクセス速度の向上(毎秒5.3TB→毎秒6TB)

 これらにより、NVIDIAの「NVIDIA H200」よりも高速なAIパラメーターの処理を時限したという。

NVIDIA H200 NVIDIA H200よりも高速なAI処理を行えるという

Instinct MI350シリーズの概要

 Instinct MI350Xシリーズは、3nmプロセスの新しい「CDMA 4アーキテクチャ」を採用する。現時点ではOAMモジュールとして提供される予定だ。

Instinct MI350シリーズ Instinct MI350シリーズ

 グラフィックスメモリはHBM3E規格で、最大288GBまで搭載できる。新たに浮動小数点演算において「FP4」「FP6」での演算に対応するという。インターフェンスのスループットは、現行のCDNA 3アーキテクチャの比で最大35倍にも上るという。

35倍! 現行のCDNA 3アーキテクチャと比べて、ピーク時の性能は最大35倍にも上るという
B200と比較 「NVIDIA B200」と比較しても、グラフィックスメモリや演算性能の面で優位に立つという

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー