米AMDは10月10日(現地時間)開催の「Advancing AI 2024」イベントで、LLMモデルのトレーニングや推論に適したデータセンター向け新型アクセラレータ「Instinct MI325X」と、高速ネットワーク通信を実現する「Pensando Salina DPU」および「Pensando Pollara 400」を発表した。
Instinct MI325Xは、従来モデルと比較してメモリ容量と帯域幅が大幅に向上しており、生成AIモデルの処理性能を向上させることができるとしている。
Instinct MI325Xは、AMD CDNA 3アーキテクチャをベースに、基盤モデルのトレーニング、微調整、推論などのAIタスク向けに設計されている。
256GBのHBM3Eメモリを搭載し、6.0TB/秒の帯域幅をサポートする。AMDは「米NVIDIAのH200と比較して1.8倍の容量と1.3倍の帯域幅を実現している」としている。推論性能は、Mistral 7B(FP16)、Llama 3.1 70B(FP8)、Mixtral 8x7B(FP16)で、H200と比較して最大1.4倍という。
リサ・スーCEOは「AIの需要は急増し続けており、予想を上回っている」と語った。同氏はデータセンターAIアクセラレータ市場が2028年には5000億ドル規模に成長すると予測し、AMDにとって大きな成長機会であると強調した。
イベントでは、Google、Oracle、Microsoft、Metaなど、主要な顧客やパートナーとの連携による、AIエコシステムの構築についても紹介された。
2025年第1四半期に、Dell Technologies、Eviden、Gigabyte、Hewlett Packard Enterprise、Lenovo、SupermicroなどがInstinct MI325X搭載システムの提供を開始する見込みだ。
NVIDIAは3月にH200の後継になる「Blackwell」を発表し、年内にリリースする予定だったが、8月に技術的な問題で、リリースが遅れると報じられている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR