プロナビ

NVIDIAのデータセンター向けGPU「NVIDIA A100」PCI Express 4.0モデルに80GB構成登場 メモリ帯域幅は毎秒2TBに拡張

» 2021年06月28日 16時01分 公開
[井上翔ITmedia]

 NVIDIAは6月28日(米国太平洋時間)、データセンター向けGPU「NVIDIA A100」のPCI Express接続モデルにGPUメモリ(HBM2E)を40GBから80GBに倍増した製品を追加することを発表した。富士通などパートナー企業を通して販売される予定だ。

A100 NVIDIA A100のPCI Express接続モデルに80GBメモリ構成が登場

 NVIDIA A100は、HPC(ハイパフォーマンスコンピューティング)向けのAmpererアーキテクチャベースのGPUだ。従来は、NVIDIAのスーパーコンピューティングプラットフォーム「HGX」用のモジュールが2種類(40GB/80GB)と、PCI Express接続モデルが1種類(40GB)の計3種類が用意されていた。

 今回追加されたPCI Express接続モデルの80GBモデルは、GPUとの通信帯域幅を毎秒約1.6TBから毎秒約2TBに引き上げている。既存の40GBモデルと同様に、接続バスはPCI Express 4.0 x4で、GPU同士をつなぐ「第3世代NVLink」にも対応する。最大TDP(熱設計電力)は、250Wから300Wに引き上げられている。

Magnum IO GPUDirect Storageも本格展開開始

 NVIDIAは同日、PCI Expressスイッチを介してGPUがNVMeストレージに直接アクセスできる技術「Magnum IO GPUDirect Storage(GDS)」を本格的に展開することも合わせて発表した。対応するストレージシステムはDell Technologies、IBM、Micronなどから提供される。

 GDSを利用すると、ストレージにアクセスする際のCPU負荷が低減され、深層学習の推論演算速度が最大6倍、地震に関するシミュレーションの速度が最大2倍に高速化するという。

GDS Magnum IO GPUDirect Storageがついに本格展開フェーズに入る

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー