Intelは12月14日、サーバ/データセンター向けCPU「第5世代Xeonスケーラブルプロセッサ」(開発コード名:Emerald Rapids)を正式に発表した。搭載製品は、パートナー企業を通して2024年第1四半期(2024年1〜3月)から順次発売される予定だ。
【更新:11時50分】一部、差し込むべき画像が誤っていたため差し替えました
第5世代Xeonスケーラブルプロセッサは、現行の第4世代Xeonスケーラブルプロセッサ(開発コード名:Sapphire Rapids)の改良版という位置付けで、CPUソケットにも互換性があるため「マザーボードを流用してアップグレード可能」だ(UEFIの更新が必要な場合がある)。
主な改良ポイントは以下の通りだ。
Intelによると、先代の同等プロセッサと比べると平均21%の性能向上を果たし、消費電力当たりの性能(いわゆる「ワッパ」)が平均36%向上したという。また、5年間隔でのシステム更新を考慮に入れると、最大77%のTCO(総所有コスト)の削減も期待できるとのことだ。
先代と同様に、第5世代もCPU「タイル構造」によってスケーラビリティー(必要な能力に応じた拡張性)を確保している。ただし、性能とのバランスを重視する観点からタイルの基数が最大4から最大2に“削減”されている。
第4世代ではタイルが最大4基構成だったが、第5世代ではスケーラビリティーと性能とのバランスを取る観点から最大2基構成となっている。なお、シングルタイル(モノシリックダイ)構成には、メインストリームのMCC(Medium Core Count)パッケージ加えて、コア数の少ないモデル向けに「LCC(Low Core Count)パッケージ」も復活している競合となるAMDのスケーラブルCPU「第4世代EPYC」(特にGenoa)と比べた場合、アーキテクチャの違いから、特にCPUコアを分割して「vCPU(仮想CPU)」として運用する際の効率とパフォーマンスに大きな違いが出るという。
具体的には、第4世代EPYCではvCPUの最大コア数がCCX(Core Complex)の物理コア数に依存するのに対して、第5世代Xeonでは「vCPUの最大コア数=物理コア数」となるので、ワークロードに応じてvCPUのコア数を柔軟に変えられる。全コアが大容量のL3キャッシュを共有できることもメリットだという。
EPYC 9554とXeon 8592+(いずれも64コア128スレッド)で同じ16コアのvCPUを備える仮想マシン(VM)を構築し、4つのワークロードを実行した際のパフォーマンスを比較。いずれもEPYC 9554を上回ったという
EPYC 9554を搭載するサーバを50台するのと“同等”のパフォーマンスを発揮するために必要な、Xeon 8592+を搭載するサーバの台数や消費電力の比較。TCO面でも第5世代Xeonの方が有利だというアピールである
こちらは、DL(深層学習)のパフォーマンスをEPYC 9654(96コア192スレッド)、EPYC 9754(128コア256スレッド)、Xeon 8480+(56コア112スレッド)、Xeon 8592+(64コア128スレッド)で比較している。EPYC勢がCPUコアが多い割にパフォーマンス面で奮わないのは、アーキテクチャの違いが大きく影響しているものと思われる。一方、Xeon同士の比較では、L3キャッシュを増量した第5世代(Xeon 8592+)のパフォーマンスアップが目立つ第5世代Xeonスケーラブルプロセッサのラインアップは以下の通りとなる。なお、特記がない限り、全モデルがデュアルCPU構成にも対応する。
Intelが「第5世代Xeonスケーラブルプロセッサ(Emerald Rapids)」を12月14日に発表 先の新製品のスケジュールも順調
全ユーザーにAI PCを届ける――IntelのゲルシンガーCEOの新たな野望 今後10年で15倍に成長する「シリコノミー」とは?
Intelが「第4世代Xeonスケーラブルプロセッサ」を正式発表 後から機能を拡張できる「Intel On Demand」対応モデルもCopyright © ITmedia, Inc. All Rights Reserved.