NVIDIAは5月24日(台湾時間)、サーバ/データセンター向けGPU「NVIDIA A100」と「NVIDIA H100」の液冷モデルを順次投入することを発表した。グラフィックスカードやソリューションは、パートナー企業を通して順次発売される予定となっている。
「NVIDIA A100 80GB PCIe Liquid-Cooled GPU」は、2021年6月28日(米国太平洋時間)に発表された「NVIDIA A100 80GB PCIe」を液冷対応としたモデルだ。既に米Equinix(エクイニクス)のデータセンターなどで動作検証が進められており、検証用サンプルも出荷が始まっている。製品版の出荷は2022年第3四半期(7〜9月)から段階的に開始する予定だという。
液冷の一番の効果は、GPUの冷却に使われる水と電力の大幅な削減だという。データセンターにはCPU、GPU、ストレージ、ネットワークチップなど数多くの「熱源」がある。これらを冷却するために強力な冷却装置が設置されるのだが、その稼働のために多くの水と電力が消費される。
NVIDIAとEquinixが別々に実施したテストによると、液冷対応をしたデータセンターと空冷対応のデータセンターで同じ処理作業(ワークロード)を実施した場合、液冷対応のデータセンターでは消費電力を約30%削減できたという。NVIDIAの試算では、液冷対応のデータセンターはPUE(※1)を1.6から1.15に削減できる上、カードの設置間隔を2分の1にできるとのことだ。
(※1)電力使用効率:データセンター全体で使われる消費電力をデータセンター内で使われているICT関連機器の消費電力で割って求められる値。理論上は「1」に近いほど効率が良いとされる
NVIDIAは既に、HGX接続のNVIDIA A100の液冷モデルを出荷済みだ。今回リリースされたPCI Express接続の液冷モデルは「第2弾」である。
NVIDIAは、新アーキテクチャGPUを搭載する「NVIDIA H100」でも液冷モデルを投入する計画を立てている。投入予定時期は以下の通りだ。
Copyright © ITmedia, Inc. All Rights Reserved.