産業技術総合研究所(産総研)が11月から試験運用を予定しているAIスパコン「ABCI 3.0」の実機を、技術・産業の総合展示会「CEATEC 2024」の同研究所内ブースにて展示している。ノードには米NVIDIAの「H200」が複数搭載されており、前モデルよりAI処理性能が向上しているという。
ABCIは「AI橋渡しクラウド」(AI Bridging Cloud Infrastructure)として、産総研傘下のAIST Solutionsが提供する大規模計算基盤で、AIや機械学習を研究する大学や企業、研究機関向けに計算リソースを提供している。2.0は、NVIDIAの「A100」を採用した1088ノード(4352GPU)で構成されており、2020年から運用が始まった富岳が登場するまで、国内最高の計算性能を誇っていた。
3.0は、これまでの富士通製に代わりHewlett Packard Enterprise(HPE)製を採用。1つのノードに、米Intel Xeon Platinum 8558(48コア)を2基、NVIDIA H200 SXM5(VRAM 141GB)を8基搭載。ストレージは7.68TBのNVMe SSDが2基、メモリはDDR5で2TiB(32スロット)、インターコネクトはInfiniBand NDR(200Gbps)を8基搭載する。ノード数は766(GPUは6128個)で、国内有数の大規模計算基盤となる。なお、H200だけで1台あたり約600万円と言われている。
ABCI 3.0は、24年11月に試験運用を開始し、25年1月に正式提供を予定。ピーク性能は半精度で6.2エクサフロップス(従来比7倍)、単精度で3.0エクサフロップス(従来比13倍)に向上している。また、AI開発がすぐに始められるソフトウェアスタックを備える他、学習済みモデルの再利用などAI開発を容易にする「AI Hub」サービスを提供。Webポータル「Open OnDemand」の導入により、ウェブブラウザからGUIベースで簡単に操作できる環境も提供するという。
NTTがAWSのLLM開発支援プログラムに参加 「H100」96基の提供受ける
AIドリームチーム「Sakana.ai」が人材募集 AWS・GCPや日本産HPCインフラの利用経験があるエンジニアなど 設立者は元Googleトップ研究者ら
「世界トップレベルの大規模言語モデルの開発に着手」──産総研らが表明 目指すのは“GPT-3級の日本語LLM”
なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”
産総研のスパコンで“大規模強化学習” なぜいま「囲碁AI」開発で世界一を目指すのか?Copyright © ITmedia, Inc. All Rights Reserved.