検索
ニュース

NVIDIA“一強”を突き崩すか AMDのAIソフトウェア「ROCm」と次世代GPU「Instinct MI400」がもたらす新たな選択肢(2/2 ページ)

AMDが、同社の主要拠点の1つであるシンガポールにおいて報道関係者向けイベントを開催した。この記事では、GPUアクセラレーター「Instinct」シリーズと、同シリーズを含むAMD製プロセッサを機軸とするAIエコシステム「ROCm」に関する説明会の模様をお伝えする。

Share
Tweet
LINE
Hatena
前のページへ |       

ROCmのオープン化は、CUDAの牙城を崩せるのか?

 説明会の質疑応答では、オープンプラットフォームとして展開されるROCmに関する質問が多く寄せられた。とりわけ、「(ROCmの)オープン化がなぜイノベーションの促進につながるのか?」という質問に対する、AMDのラミン・ロアーヌ氏(AIソフトウェア担当)の回答は興味深いものだった。

 (ROCmが)オープンソースである最大の利点は、ハイパースケーラーのような大手顧客や、AI研究を行うラボが特定のニーズに合わせてコードを自在にカスタマイズできることにある。特に「Hugging Face」や「PyTorch」などの主要なコミュニティープロジェクトと密接に連携することで、コミュニティー側がAMDのハードウェア上で日々数千回にも及ぶテストを実施しており、スタックの安定化と最適化に寄与している。ユーザーは特定のベンダーにロックインされることなく、最新の研究成果を迅速に利用可能になる

 ROCmのオープン化は、例えば「Llama」や「Gemma」などの最新モデルがリリースと同時にAMDのハードウェア上で動作可能になったり、「Triton」や「Python」で記述された特定分野向けの「DSL(Domain Specific Language)」のサポートを可能にしたりと、最新AIへの迅速なキャッチアップにつながっている。

 重要なのは、「オープンプラットフォーム」をキーワードに主要なプレイヤーを積極的に取り込むことで、コミュニティーの活動をAMDハードウェアにそのまま反映できることだ。長らくCUDAの“牙城”だったAIエコシステムにとらわれることなく、“既存のソフトウェア資産”をそのまま活用できる有力な“もう1つの選択肢”としてアピールできるようになったのだ。

ROCmのオープン化
AMDがAI開発コミュニティーと進める連携成果の“一部”

 この他、最近ではノートPCやワークステーションといったクライアント環境でもROCmのサポートを強化している。以前と比較してもローカルでの作業環境が充実しており、開発者らは手元の環境でテストを繰り返しつつ、そのまま実稼働環境たるクラウドサーバへのスケールアップを実現できる点でメリットがある。

 こうした動きを活性化するため、AMDでは「AMD AI Playbooks」を始めとするローカルAIの設定ガイドコンテンツを拡充している。対応のローカルOSはWindowsだけでなく、将来的なMac(macOS)のサポートも視野に入れている。

 また、幅広くプラットフォームを横断して、ROCmのメリットを享受できる環境を整えつつある。

クライアントPCにおけるROCmのサポート
クライアントPCにおけるROCmのサポート

 実際、ROCmの活動を介してAMD周辺のAIエコシステムを支えるベンダーもある。

 2023年に稼働を開始したクラウドAIプロバイダー「TensorWave」は、AMD Instinct GPUを専門に扱う世界初の企業として知られる。

 説明会にオンライン登壇したTensorWaveのピョートル・トマシク共同創業者兼COOは次のように説明している。

 市場におけるNVIDIA製GPUの極端な不足と、提供における納期の長さ(リードタイム)は大きな課題だ。(TensorWaveは)AMDと密接に連携することで、大規模な計算資源を迅速かつ安定して提供することが可能になった

 NVIDIAプラットフォームと比較した場合の(AMDプラットフォーム)の優位点は潤沢なグラフィックスメモリ容量と、高速なメモリ帯域幅にある。特に、LLMの推論において非常に高いパフォーマンスが得られることは大きなメリットといえる。

 以前は「AMD(プラットフォーム)でのAI開発は難しい」といった言説もあったが、ROCmの進化によりPyTorchやTensorFlowといった主要フレームワークは、コードの書き換えなくAMDプラットフォーム上でネイティブ動作可能になっており、NVIDIA CUDAへのロックインを嫌う顧客にとって魅力的な選択肢となっている。

ピョートル・トマシク共同創業者兼COO
オンライン登壇したピョートル・トマシク共同創業者兼COO

 AMD専業のTensorWaveのみならず、従来からNVIDIA製GPUを扱ってきたクラウドAIプロバイダーやソリューションプロバイダーの中にも、AMD製GPU向けのソリューションを提供するベンダーが出現し始めており、ニーズに応じてNVIDIA“以外”の選択肢としてAMDを積極的に採用可能な環境は整いつつある

 特に数カ月レベルで市場の情勢がガラリと変わるAIの世界において、投資が特定のベンダーにロックインされることなく、将来にわたって有効活用できることは重要だ。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る