NVIDIAは3月22日(米国太平洋時間)、データセンター向けの新型GPU「NVIDIA H100」を発表した。同GPUを搭載する同社製の深層学習システム「NVIDIA DGX H100」や各社のサーバは2022年第3四半期(7〜9月)に発売される予定だ。
NVIDIA H100では、新しいGPUアーキテクチャ「Hopper(ホッパー)」を採用している。この名前はコンピューター科学者の故グレース・ホッパー氏にちなんでおり、現行のAmpere(アンペア)アーキテクチャの後継に位置付けられている。
Hopperアーキテクチャの主な特徴は以下の通りだ。なお「旧世代」は「NVIDIA A100」のことを指す。
NVIDIA N100には、同社オリジナルの「SMX5ボード」と、PCベースのサーバなどで汎用(はんよう)的に使える「PCI Expressボード」の2種類のフォームファクターが用意される。搭載するGPUチップはいずれも「NVIDIA GH100」というものだが、微妙にスペックが異なる部分がある。
なお、用途が用途だけに、上記のうちグラフィックスの外部出力に直接利用できるリソースはごくわずかとなっている(※1)。
(※1)全構成共にTPC(テクスチャ処理クラスタ)のうち2基(SM換算で4基)のみとなる
Tensorコアを併用した場合の主な演算スペック(予定値)は以下の通りだ(前段の数字はSMXボード、後段の数字はPCI Expressボード)。
(※2)スパース性(疎な行列の整理)を利用した場合、実効演算速度はこの2倍となる
一部の演算では、「1兆=T(テラ)」を超える「1000兆=P(ペタ)」FLOPSを実現している。
先述の通り、NVIDIA H100は第4世代NVLinkに対応している。この新しいNVLinkでは直結できるGPUが最大8基であることに変わりはないが、帯域幅が最大毎秒900GB(双方向時)に高速化されている。
さらに、新世代では「NVLink Network interconnect」という機能が新たに追加されており、オプションのラックシステム「NVLink Switch」を利用することで最大256基のGPUをNVLinkを介して連携動作できるようになった。旧世代の「NVIDIA HDR Quantum InfiniBand」を使った連携と比べると帯域幅は9倍(双方向時)になるという。
第4世代NVLinkでは、NVLink Switchを別途用意することで最大256基のGPUをNVLinkを介して連携させられるようになった。従来のHDR Quantum InfiniBandを介した連携と比べると、帯域幅は9倍になるNVIDIA H100の登場に合わせて、NVIDIAは2022年後半に、自社製の深層学習用サーバ「NVIDIA DGX H100」を発売する。主なスペックは以下の通りだ。
加えて、同社は複数台のDGX H100をNVLink Switchで連結した「NVIDIA DGX POD」「NVIDIA DGX SuperPOD」も発売する。DGX H100向けNVIDIA DGX SuperPODでは、最大で32台のDGX H100を搭載可能で、この場合は256基のGPUを連係動作させられることになる。32台を連携させた場合、FP8演算の能力は最大約1000京FLOPSとなり、「1000京=E(エクサ)」レベルとなる。
その他、NVIDIA H100を搭載するサーバは以下のメーカーからも登場する予定だ。
「NVIDIA RTX A5500」などの新GPUが登場 Ampereアーキテクチャを採用しモバイル向けも
NVIDIAが1999ドルの「Jetson AGX Orin開発者キット」を発売
NVIDIA Maxineにエコーキャンセルとオーディオアップサンプリング機能を追加
実売28万円のNVIDIA RTX A4500搭載カードが登場!
プロ向けの「NVIDIA RTX A4000」が個人ユースでも売れている理由Copyright © ITmedia, Inc. All Rights Reserved.