メディア
ITmedia AI+ >

「NVIDIA H200」がズラリ 産総研の最新AIスパコン「ABCI 3.0」の中身を見てきた

» 2024年10月16日 15時30分 公開
[ITmedia]

 産業技術総合研究所(産総研)が11月から試験運用を予定しているAIスパコン「ABCI 3.0」の実機を、技術・産業の総合展示会「CEATEC 2024」の同研究所内ブースにて展示している。ノードには米NVIDIAの「H200」が複数搭載されており、前モデルよりAI処理性能が向上しているという。

「ABCI 3.0」で使われるHewlett Packard Enterprise製ノード

 ABCIは「AI橋渡しクラウド」(AI Bridging Cloud Infrastructure)として、産総研傘下のAIST Solutionsが提供する大規模計算基盤で、AIや機械学習を研究する大学や企業、研究機関向けに計算リソースを提供している。2.0は、NVIDIAの「A100」を採用した1088ノード(4352GPU)で構成されており、2020年から運用が始まった富岳が登場するまで、国内最高の計算性能を誇っていた。

ノードで使用されるパーツ構成

 3.0は、これまでの富士通製に代わりHewlett Packard Enterprise(HPE)製を採用。1つのノードに、米Intel Xeon Platinum 8558(48コア)を2基、NVIDIA H200 SXM5(VRAM 141GB)を8基搭載。ストレージは7.68TBのNVMe SSDが2基、メモリはDDR5で2TiB(32スロット)、インターコネクトはInfiniBand NDR(200Gbps)を8基搭載する。ノード数は766(GPUは6128個)で、国内有数の大規模計算基盤となる。なお、H200だけで1台あたり約600万円と言われている。

ノードにはNVIDIAのH200がずらり
DDR5メモリスロットは32基

 ABCI 3.0は、24年11月に試験運用を開始し、25年1月に正式提供を予定。ピーク性能は半精度で6.2エクサフロップス(従来比7倍)、単精度で3.0エクサフロップス(従来比13倍)に向上している。また、AI開発がすぐに始められるソフトウェアスタックを備える他、学習済みモデルの再利用などAI開発を容易にする「AI Hub」サービスを提供。Webポータル「Open OnDemand」の導入により、ウェブブラウザからGUIベースで簡単に操作できる環境も提供するという。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ