AMDがGPUのアーキテクチャをゲーミング重視の「RDNA」とサーバ/データセンター向けの「CDNA」に分化させて久しい。そんな中、同社は6月12日(米国太平洋夏時間)に自社イベント「ADVANCING AI 2025」の基調講演でCDNA系列の最新GPU「InstinctMI 350シリーズ」を発表した。
InstinctMI 350シリーズでは、GPUアーキテクチャも「CDNA 4(第4世代CDNA)」に刷新されている。この記事では、CDNAアーキテクチャのあらましと、Instinct MI350シリーズの基本設計について解説する。
【訂正:7月12日9時35分】初出時、SIMT/SIMDのデータ構造の説明に一部誤りがありました。おわびして訂正いたします
COMPUTEX TAIPEI 2025には登壇しなかったAMDのリサ・スーCEOだが、本イベントでは基調講演に登壇してInstinct MI350シリーズのチップを披露した。近年のAMDは、Instinct MI350シリーズを含めてAI関連製品に注力している節がある
筆者はGPUの解説記事を執筆することが多い一方で、AMDのCDNA系統のGPUを説明する機会が少なかった。そこで、今回は冒頭でCDNA系統のGPUアーキテクチャの基礎的な話をしようと思う。不要であれば、この節は飛ばしてもらって構わない。
CDNAのルーツは、据え置き型ゲーム機「PlayStation 4」のAPU(GPU統合型CPU)、あるいは「Radeon RX 500シリーズ」までのRadeon RXシリーズや「Radeon Vega」で使われていた「GCN(Graphics Core Next)アーキテクチャ」にある。
AMDはGCNを「CDNA」と改名し、GPUコンピューティング(GPGPU)やサーバ向けGPUの基盤技術として“流用”した。その後、CDNAは第3世代の「CDNA3」まで進化し、今回CDNA4が発表されたという経緯になる。
一方で、AMDは“複雑怪奇”になっていく近代3Dゲームグラフィックスに対して、高い親和性を発揮できる新アーキテクチャとして「RDNA」を開発した。これ以降、RDNAアーキテクチャは、ゲーミングに最適化する方向性で進化しており、2025年初頭に登場した「RDNA4」が最新となる。ちなみに、据え置き型ゲーム機「PlayStation 5」のGPUは、「RDNA2アーキテクチャ」ベースである。
AMDのGPUは、GPGPU/HPC(ハイパフォーマンスコンピューティング)用途の「CDNA系」と、ゲーミング(3Dグラフィックス)重視の「RDNA系」と、2つのアーキテクチャに分化した。本文にある通り、CDNA系はGCNアーキテクチャの延長線上にあるいってみれば、GCNの系譜の延長線上にあるCDNAは3Dグラフィックス視点から見ると“旧世代”となる。そうなると「わざわざ旧世代を“継続”採用したのはどうして?」という疑問が湧いてくる。気になる人も多いだろう。
しかし、この辺りを詳細に解説すると記事としては長くなりすぎるので、簡潔にまとめていきたい。
CDNA系のアーキテクチャは「SIMD(Single Instruction Multiple Data)」に寄せたアーキテクチャであるのに対して、RDNA系のアーキテクチャは、どちらかというと「SIMT(Single Instruction Multiple Thread)」に寄せたアーキテクチャとなっている。こここそが、CDNA系とRDNA系のGPUにおける大きな相違点だ。
SIMTという考え方は、競合のNVIDIAが「CUDAアーキテクチャ」初導入したGPU「GeForce 8800GTX」(2006年リリース)で初めて採用した。一方で、AMDはというと一環してSIMDを採用し続けてきた経緯がある。
しかし、近代3Dゲームグラフィックスを効率良く処理するには、SIMDに固執すると限界がある――そう考えたAMDは、2019年にリリースした「Radeon RX 5000シリーズ」において、SIMTを採用したRDNAアーキテクチャにシフトすることになった。
NVIDIAのCUDAコアやAMDのRDNAアーキテクチャが採用するSIMTでは、複数のスレッド(例えば32スレッド)が同一命令を実行する際に、スカラ命令に“分解”して実行する。そのため、演算器の駆動効率が良いことに加え条件分岐が発生した場合に実行効率が(SIMDと比較して)下がりにくいというメリットがある。
SIMTが向いているデータ構造は「SOA(Structure of Arrays)」と呼ばれ、具体的には以下のような構造となる。
[x0, x1, x2, ...], [y0, y1, y2, ...],[z0, z1, z2, ...],[v0, v1, v2, ...]
一方、GCN/CDNA系のアーキテクチャが採用するSIMDでは、単一命令が複数のデータに対して、固定的に同時処理を適用する。処理対象のデータ構造とSIMD命令の「Way数(SIMD幅)がピッタリ一致する場合は、SIMTよりも高密度を維持して演算を実行できるのがメリットだ。
しかし、条件分岐などを伴う処理系では「条件成立時」「不成立時」双方の命令を実行する必要があり、実行効率はSIMTよりも低下するデメリットがある。
SIMDが向いているデータ構造は「AOS(Array of Structrures)」と呼ばれ、具体的には以下のような構造となる。
[x0, y0, z0, v0][x1, y1, z1, v1][x2, y2, z2, v2]..
再現するマテリアルごとに読み出したテクスチャの利用の仕方を変えたり、演算の手法を変えたり……といった“複雑怪奇”になった近代3Dゲームグラフィックス処理系では、SIMTの方が向いている――これは、今となっては業界の統一見解となっていると言っても過言ではない。
一方で、高密度なベクトル演算が多用される古典的な数値計算や、シミュレーション関連の分野ではSIMDの方が向いているとされる。
では、最近盛り上がっているAI(人工知能)に関する処理系では、SIMTとSIMDのどちらが向いているのだろうか?
ざっくりとした傾向でいえば、学習のフェーズではSIMT、推論のフェーズはSIMDが向いていることが多い(ただし、あくまで一般論)。どちらがいいかは、取り扱うデータの形式や、GPUコンピューティングでどんなテーマを取り扱うかによって変わってくる。
ゆえに、AMDは「SIMDならCDNA、SIMTならRDNA」というように2つのアーキテクチャを用意して、顧客側にどちらかを選んでもらうという方針を採っているわけだ。
余談だが、IntelのGPU「Intel Arc Graphics」シリーズでは、SIMDベースのアーキテクチャを採用しつつも、SIMT的な命令発行とSIMD的な命令実行を組み合わせられる“ハイブリッド型”を採用している。
なお、CDNA系のGPUはかつて「Radeon」を冠に付けて展開されていたものの、この系統では3Dグラフィックスパイプラインを基本的に利用できない。CDNAがGPGPU的な用途のGPUサーバ向けに訴求されてきたのは、そのためだ。
「3Dグラフィックス用途にも使えるGPUがいい」という場合は、RDNA系のアーキテクチャを採用する「Radeon Proシリーズ」を選択することになる。
AMDはかつてGPGPU向けのGPUを「Radeon Instinct」というブランドで展開していたが、CDNAアーキテクチャに移行するタイミングで「Radeon」を外して「Instinct」ブランドで展開されるようになった(画像はRadeonの冠を外した初めての製品「Instinct MI100」)
AMDが「Instinct MI350シリーズ」を2025年第3四半期に出荷開始 275台以上のラックシステムを2030年までに“1台”にまとめる計画も
AMDのGPUアクセラレーター「Instinct」のロードマップを公表 「Insinct MI350X」は2025年内に登場
AMDが新型GPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表 「NVIDIA H100」よりも強い?
AMD、HPC向けのGPUアクセラレーター「AMD Instinct MI200」シリーズを発表 業界初のマルチダイGPU構成を採用
AMDが次世代GPU「Radeon RX 5000」ファミリーを7月投入Copyright © ITmedia, Inc. All Rights Reserved.