ニュース
ASUS、NVIDIA HGX H200を搭載するAIサーバ「ESC N8-E11」を発表
ASUSは、NVIDIA HGX H200の搭載に対応した高性能設計のAIサーバ「ESC N8-E11」を発表した。
ASUSは9月3日、NVIDIA HGX H200の搭載に対応した高性能設計のAIサーバ「ESC N8-E11」の発表を行った。製品の出荷開始は2024年第4四半期初頭の予定だ。
今回発表となったモデルは、デュアルXeonスケーラブル・プロセッサと、8基のNVIDIA H200 Tensor Core GPUを搭載しているのが特徴。NVLinkを介したGPU間の相互接続が可能な設計となっており、データ集約的なタスクに対応する高いスループットを実現できる。
拡張スロットはPCI Expressスロットを10+1基装備。メモリスロットは32DIMMに対応、10GbE対応LANポート2基なども利用できる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
NVIDIA、Ampereアーキテクチャを採用したシングルスロット設計のデスクトップ向けGPU「NVIDIA RTX A400/A1000」を発表
NVIDIAは、プロ向けとなる省電力設計のデスクトップ用GPU「NVIDIA RTX A400」「同 A1000」の発表を行った。
NVIDIA、2つのGPUダイを採用した新GPUアーキテクチャ「Blackwell」発表 電力効率25倍、AI性能は30倍に
「Blackwell」は2つのGPUダイ(半導体のチップ本体)を10TB/秒の超高速なインタフェース「NV-HBI」で接続し、1つのGPUとして振る舞う仕組みを採用している。トランジスタの数は2080億個に上る。
COMPUTEX TAIPEI 2022:サーバ向けGPU「NVIDIA A100」「NVIDIA H100」に液冷対応モデル登場 消費電力と設置スペースを削減
NVIDIAのサーバ/データセンター向けGPU(グラフィックスカード)「NVIDIA A100」に液冷対応モデルが登場する。従来の空冷対応モデルから消費電力を削減できる上、設置スペースの節約もできるようになるという。最新の「NVIDIA H100」シリーズにも液冷対応モデルが順次投入される予定だ。
NVIDIAのデータセンター向けGPU「NVIDIA A100」PCI Express 4.0モデルに80GB構成登場 メモリ帯域幅は毎秒2TBに拡張
NVIDIAのデータセンター向けGPU「NVIDIA A100」のPCI Expressカードモデルに、グラフィックスメモリを80GBに倍増した構成が登場する。従来の40GB構成と比べてメモリ帯域幅が拡張されており、メモリ容量増加以上のパフォーマンスアップを期待できる。

