ニュース

NVIDIAのデータセンター向けGPU「NVIDIA A100」PCI Express 4.0モデルに80GB構成登場 メモリ帯域幅は毎秒2TBに拡張

NVIDIAのデータセンター向けGPU「NVIDIA A100」のPCI Expressカードモデルに、グラフィックスメモリを80GBに倍増した構成が登場する。従来の40GB構成と比べてメモリ帯域幅が拡張されており、メモリ容量増加以上のパフォーマンスアップを期待できる。

 NVIDIAは6月28日(米国太平洋時間)、データセンター向けGPU「NVIDIA A100」のPCI Express接続モデルにGPUメモリ(HBM2E)を40GBから80GBに倍増した製品を追加することを発表した。富士通などパートナー企業を通して販売される予定だ。


NVIDIA A100のPCI Express接続モデルに80GBメモリ構成が登場

 NVIDIA A100は、HPC(ハイパフォーマンスコンピューティング)向けのAmpererアーキテクチャベースのGPUだ。従来は、NVIDIAのスーパーコンピューティングプラットフォーム「HGX」用のモジュールが2種類(40GB/80GB)と、PCI Express接続モデルが1種類(40GB)の計3種類が用意されていた。

 今回追加されたPCI Express接続モデルの80GBモデルは、GPUとの通信帯域幅を毎秒約1.6TBから毎秒約2TBに引き上げている。既存の40GBモデルと同様に、接続バスはPCI Express 4.0 x4で、GPU同士をつなぐ「第3世代NVLink」にも対応する。最大TDP(熱設計電力)は、250Wから300Wに引き上げられている。

advertisement

Magnum IO GPUDirect Storageも本格展開開始

 NVIDIAは同日、PCI Expressスイッチを介してGPUがNVMeストレージに直接アクセスできる技術「Magnum IO GPUDirect Storage(GDS)」を本格的に展開することも合わせて発表した。対応するストレージシステムはDell Technologies、IBM、Micronなどから提供される。

 GDSを利用すると、ストレージにアクセスする際のCPU負荷が低減され、深層学習の推論演算速度が最大6倍、地震に関するシミュレーションの速度が最大2倍に高速化するという。


Magnum IO GPUDirect Storageがついに本格展開フェーズに入る

Copyright © ITmedia, Inc. All Rights Reserved.