Intelが「次世代Xeonプロセッサ(Sapphire Rapids)」をチラ見せ 広帯域メモリ内蔵バージョンを用意:Xe-HPCは「検証段階」に
スーパーコンピューターの世界的なイベント「ISC 2021」に合わせて、IntelがHPC(ハイパフォーマンスコンピューティング)に関する取り組みを発表した。その中で、次世代のXeonスケーラブルプロセッサ(開発コード名:Sapphire Rapids)にHBM(広帯域メモリ)を内蔵するバージョンが用意されることが明らかとなった。
Intelは6月28日(米国太平洋時間)、ISC(International Supercomputing Conference) 2021の開催に合わせて、HPC(ハイパフォーマンスコンピューティング)やAI(人工知能)に関する取り組みを発表した。その中で、次世代の「Xeonスケーラブルプロセッサ」(開発コード名:Sapphire Rapids)の概要が少しだけ説明されている。
Sapphire Rapidsの特徴
新世代Xeonスケーラブルプロセッサは、10nmプロセスで開発が進められている。今回の“チラ見せ”では、以下のような機能を備えていることが発表された。
- DDR5メモリとHBM(広帯域メモリ)のサポート
- PCI Express 5.0のサポート
- CXL(Compute Express Link) 1.1のサポート
- Intel AMX(Advanced Matrix Extensions)の搭載
新たに公表されたのは、HBMのサポートである。一部のSKU(モデル)でHBMを内蔵(統合)したバージョンを用意するようだ。
その名の通り、HBMはバス幅を大きく取ることでアクセス速度を引き上げたメモリで、現在はHPC(ハイパフォーマンスコンピューティング)向けのGPUにおいて、第2世代に相当する「HBM2」や「HBM2E」(HBM2の帯域をより広げたもの)をグラフィックスメモリとして採用される事例が多い。
HBM内蔵モデルでは、HBMのみはもちろん、DDR5メモリと組み合わせて稼働することもできる。
新世代Xeonスケーラブルプロセッサは、既に一部の研究機関で利用が開始されている。HBM内蔵バージョンのリリースも好意的に受け入れられているという。PCI Express 5.0やCXL 1.1によって入出力帯域が広がったことと相まって、人工知能処理やデータ分析のパフォーマンスが向上することを期待しているようだ。
なお、新世代Xeonスケーラブルプロセッサ自体の商用提供の時期は明言されていない。
HPC向けGPU「Xe-HPC」は検証段階に移行
同社がHPC向けに開発を進めているGPU「Xe-HPC」(仮称、開発コード名:Ponte Vecchio)については、2021年初頭に起動確認が完了し、システム検証過程に移行したという。
Xe-HPCはHBMメモリを搭載するなど、HPCに最適な設計となっている。必要に応じて、OAM(OCP Accelerator Module)やそれを複数枚搭載したサブシステムとして提供することも可能で、システムの規模に応じて処理能力を柔軟に調整できるという。
関連記事
- Intelが「第3世代Xeonスケーラブルプロセッサ(Ice Lake)」を発表 最大40コアで処理能力を向上
Intelが、Ice Lakeアーキテクチャに基づく第3世代Xeonスケーラブルプロセッサを発表した。クロック当たりの処理性能を向上し、機械学習ベースのAI処理も高速化している。なお、既存のCooper Lakeアーキテクチャの製品は継続販売(併売)される。 - AMDがサーバ向けCPU「EPYC 7003シリーズ」を発表 Zen 3アーキテクチャでクロック当たりの性能を向上
AMDがZen 3アーキテクチャを採用したサーバ/データセンター向けCPUを発売する。クロック当たりの性能が向上したことで、実用パフォーマンスもより向上しているという。 - NVIDIAのデータセンター向けGPU「NVIDIA A100」PCI Express 4.0モデルに80GB構成登場 メモリ帯域幅は毎秒2TBに拡張
NVIDIAのデータセンター向けGPU「NVIDIA A100」のPCI Expressカードモデルに、グラフィックスメモリを80GBに倍増した構成が登場する。従来の40GB構成と比べてメモリ帯域幅が拡張されており、メモリ容量増加以上のパフォーマンスアップを期待できる。 - NVIDIAが新型AIワークステーション「DGX Station A100」を発表 2020年末までに発売
AIデータ処理に特化したNVIDIA製のワークステーションに新モデルが登場する。CPUをIntelのXeonからAMDのEPYCに変更した他、AmpereベースのハイエンドGPU「NVIDIA A100」を4基搭載することで「データセンター並みの機械学習処理を机の下で実現」した。 - NVIDIAがデータセンター向けCPU「Grace」を開発 Armアーキテクチャを採用して2023年初頭に発売へ
NVIDIAが、データセンター向けGPUに加えて“CPU”の開発を表明した。現在買収手続きを進めているArmのアーキテクチャを使って設計することで、省電力性と高速演算を両立したことが特徴だ。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.