プロナビ

サーバ向けGPU「NVIDIA A100」「NVIDIA H100」に液冷対応モデル登場 消費電力と設置スペースを削減COMPUTEX TAIPEI 2022

» 2022年05月24日 13時00分 公開
[井上翔ITmedia]

 NVIDIAは5月24日(台湾時間)、サーバ/データセンター向けGPU「NVIDIA A100」と「NVIDIA H100」の液冷モデルを順次投入することを発表した。グラフィックスカードやソリューションは、パートナー企業を通して順次発売される予定となっている。

A100 80GB PCIe Liquid-Cooled GPU(2022年夏から出荷予定)

 「NVIDIA A100 80GB PCIe Liquid-Cooled GPU」は、2021年6月28日(米国太平洋時間)に発表された「NVIDIA A100 80GB PCIe」を液冷対応としたモデルだ。既に米Equinix(エクイニクス)のデータセンターなどで動作検証が進められており、検証用サンプルも出荷が始まっている。製品版の出荷は2022年第3四半期(7〜9月)から段階的に開始する予定だという。

カードのイメージ A100 80GB PCIe Liquid-Cooled GPU

 液冷の一番の効果は、GPUの冷却に使われる水と電力の大幅な削減だという。データセンターにはCPU、GPU、ストレージ、ネットワークチップなど数多くの「熱源」がある。これらを冷却するために強力な冷却装置が設置されるのだが、その稼働のために多くの水と電力が消費される。

 NVIDIAとEquinixが別々に実施したテストによると、液冷対応をしたデータセンターと空冷対応のデータセンターで同じ処理作業(ワークロード)を実施した場合、液冷対応のデータセンターでは消費電力を約30%削減できたという。NVIDIAの試算では、液冷対応のデータセンターはPUE(※1)を1.6から1.15に削減できる上、カードの設置間隔を2分の1にできるとのことだ。

(※1)電力使用効率:データセンター全体で使われる消費電力をデータセンター内で使われているICT関連機器の消費電力で割って求められる値。理論上は「1」に近いほど効率が良いとされる

NVIDIAの試算 同じ処理能力になるようにNVIDIA A100 PCIe 80GBの従来(空冷)モデルと液冷モデルを用意して比較すると、液冷モデルは設置面積を66%、消費電力を28%削減できるという(NVIDIAの試算)

今後は「NVIDIA H100」の液冷モデルも登場予定

 NVIDIAは既に、HGX接続のNVIDIA A100の液冷モデルを出荷済みだ。今回リリースされたPCI Express接続の液冷モデルは「第2弾」である。

 NVIDIAは、新アーキテクチャGPUを搭載する「NVIDIA H100」でも液冷モデルを投入する計画を立てている。投入予定時期は以下の通りだ。

  • HGX接続タイプ:2022年第4四半期(10〜12月)
  • PCI Express接続タイプ:2023年初頭
液冷 NVIDIA A100/H100シリーズの液冷対応ロードマップ

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

2024年04月26日 更新
最新トピックスPR

過去記事カレンダー