NVIDIAは6月28日(米国太平洋時間)、データセンター向けGPU「NVIDIA A100」のPCI Express接続モデルにGPUメモリ(HBM2E)を40GBから80GBに倍増した製品を追加することを発表した。富士通などパートナー企業を通して販売される予定だ。
NVIDIA A100は、HPC(ハイパフォーマンスコンピューティング)向けのAmpererアーキテクチャベースのGPUだ。従来は、NVIDIAのスーパーコンピューティングプラットフォーム「HGX」用のモジュールが2種類(40GB/80GB)と、PCI Express接続モデルが1種類(40GB)の計3種類が用意されていた。
今回追加されたPCI Express接続モデルの80GBモデルは、GPUとの通信帯域幅を毎秒約1.6TBから毎秒約2TBに引き上げている。既存の40GBモデルと同様に、接続バスはPCI Express 4.0 x4で、GPU同士をつなぐ「第3世代NVLink」にも対応する。最大TDP(熱設計電力)は、250Wから300Wに引き上げられている。
NVIDIAは同日、PCI Expressスイッチを介してGPUがNVMeストレージに直接アクセスできる技術「Magnum IO GPUDirect Storage(GDS)」を本格的に展開することも合わせて発表した。対応するストレージシステムはDell Technologies、IBM、Micronなどから提供される。
GDSを利用すると、ストレージにアクセスする際のCPU負荷が低減され、深層学習の推論演算速度が最大6倍、地震に関するシミュレーションの速度が最大2倍に高速化するという。
Copyright © ITmedia, Inc. All Rights Reserved.