ニュース

NVIDIAが新型AIワークステーション「DGX Station A100」を発表 2020年末までに発売CPUはXeonからEPYCに

AIデータ処理に特化したNVIDIA製のワークステーションに新モデルが登場する。CPUをIntelのXeonからAMDのEPYCに変更した他、AmpereベースのハイエンドGPU「NVIDIA A100」を4基搭載することで「データセンター並みの機械学習処理を机の下で実現」した。

 NVIDIAは11月16日(米国太平洋時間)、新型のAIワークステーション「NVIDIA DGX Station A100」を発表した。2020年第4半期中(12月まで)にパートナー企業を通して発売される予定だ。


DGX Station A100

DGX Station A100の概要

 DGX Station A100は、「DGX Station」の後継製品で、AmpereアーキテクチャベースのハイエンドGPU「NVIDIA A100」を4基搭載している。データ科学者が自宅やオフィス(研究室)で研究作業を進めやすくするためのソリューションとして開発された。


DGX Station A100の概要

 AMDのサーバ向けCPU「EPYC(エピック)」(64コア)を採用し、メインメモリは最大で512GBまで搭載できる。ストレージは1.92TBのNVMe SSDをOS用に備える他、データキャッシュ用に最大7.68TBのNVMe SSDを搭載可能だ。

advertisement

CPUには64コアのEPYCプロセッサを採用した

データキャッシュ用に最大7.68TBのNVMe SSD(PCI Express 4.0接続)を搭載できる

 GPUのNVIDIA A100は、2020年5月に発表済みのグラフィックスメモリ40GBのカードの他、DGX Station A100と同時に発表されたグラフィックスメモリ80GBのカードも選択できる。第3世代の「NVLink」によって4基を連結することで、80GBカードを選択した場合は合計で320GBのメモリ空間を確保可能だ。同社のGPUリソース分割技術「NVIDIA Multi-Instance GPU(MIG)」を利用すると、最大で28個のインスタンスを並行処理できる。

 映像出力はMini DisplayPort×4で、全ポートから4K(3840×2160ピクセル)映像を同時出力することも可能だ。有線LANは10GBASE-Tポート×2と、管理用の1000BASE-Tポート×1を備える。


GPUとしてNVIDIA A100を4基搭載し、第3世代NVLinkで連結している。画像では320GB(80GB×4)のグラフィックスメモリ空間が使えることをアピールしているが、160GB(40GB×4)の構成も用意されている

4K出力が可能なMini DisplayPort端子を4基備える

 これだけハイスペックだと本体内にある熱源の冷却が不安になるが、冷媒を使った冷却システムを本体に内蔵することで解決している。このシステムはDGX Station A100のために新規開発されたもので、静音かつメンテナンスフリーであることが特徴だ。


新規開発された冷却システムは、静音かつメンテナンスフリーであることが特徴
NVIDIAによる「DGX Station A100」の紹介動画

Copyright © ITmedia, Inc. All Rights Reserved.