ニュース
» 2008年12月02日 22時11分 公開

東工大のTSUBAMEが汎用GPU計算アクセラレータで性能強化

東工大が保有する国内最大規模のスパコン「TSUBAME」がGPUボードを用いて大幅な性能強化を実現した。併せてNVIDIA CUDAのレクチャーを含む並列プログラミングの授業を開講するなど、HPC市場でNVIDIAの勢力が強まっている。

[西尾泰三,ITmedia]

 東京工業大学は12月2日、2006年に構築した国内最大規模のスパコン「TSUBAME Grid Cluster」(TSUBAME)をGPUを用いて性能強化したと発表した。

東工大のTSUBAME

 同大学が2006年に構築したTSUBAMEは、スカラとベクトルの混合システムとして当時から注目されていたが、流体構造系のシミュレーションや、ゲノムや蛋白質などのライフサイエンス系アプリケーションではさらなるコンピューティングリソースが求められていた。

 しかし、すでに1メガワットを超える電力を消費する巨大なシステムであり、現実的な予算などの兼ね合いから拡張が難しい状況にあった。そこで目をつけたのがGPUによる拡張である。

 今回、高いメモリバンド幅を要求する流体計算などのアプリケーションを有効にサポートするために、「高速フーリエ変換演算加速装置」として、NVIDIAの汎用GPU計算アクセラレータ「Tesla S1070」170台を後付けでTSUBAME上に展開した。Tesla S1070は1Uサイズの筐体に「Tesla」シリーズの第2世代製品に当たる「Tesla 10」を4枚搭載したもの。Tesla 10には「GeForce GTX 280」などと同世代の「GT200」コアが搭載されており、Tesla S1070 1台当たりの理論演算性能は単精度32ビット浮動小数点演算で約4TFLOPSに達するという。

Tesla S1070

 GT200では倍精度64ビット浮動小数点演算にも対応しているが、こちらはまだ対応したばかりということもあり、170台のTesla S1070から得られる倍精度演算の理論演算性能は59TFLOPSにとどまっているという。GPU向けのアルゴリズムの開発が進めば倍精度演算のピーク性能や並列か効率は改善されていくとみられるが、最新のTop500では、TSUBAMEのRPEAK(理論演算性能)は161.82TFLOPS、LinpackベンチマークによるRMAX(実効性能)は77.48TFLOPSで29位にランクインしている。日本国内のスパコンに限れば、東京大学で稼働しているスパコン「T2K」(27位)に次ぐ順位となる。

 この取り組みは以下の2点で重要である。1つは、GPGPUを用いた巨大なシステムが国内でも稼働しはじめたという事実。もう1つは、ソフトウェアプラットフォームとしての「NVIDIA CUDA」がHPC市場でより価値を持ち得る土壌ができつつあるということだ。

 今回の導入に先立ち、東工大では2008年10月からNVIDIA CUDAのレクチャーを含む並列プログラミングの授業「計算数理実践-HPC-」を開講した。これは、東工大グローバルCOE「計算世界観」の一環として開講され、主に大学院の学生を対象としたもの。座学だけでなく、TSUBAME上のTeslaを用いた実践的実習も行うのが特徴だ。

 今回東工大がこうした取り組みを開始したことで、CUDAはHPCの市場でさらに支持を集めることが予想される。国立大学法人となった現在、外部資金の取り込みも課題の1つとなっているが、現在、東工大とNVIDIAはCUDAセンター・オブ・エクセレンス(CCOE)の認定プロセスを進めており、これに認定されると、GPUコンピューティングクラスタの設定支援を含め、資金提供と設備の寄付がNVIDIAから受けられることになる。

 東工大・学術国際情報センター教授の松岡聡氏はリリース文の中で「今後、東工大の研究者や学生たちは、個人のPCから大規模スーパーコンピュータに至るGPUの連続性を大いに活用していくでしょう。つまり、学生は秋葉原へ行ってGPUカードを購入して各自のPCに装着し、各自のアプリケーションをCUDAに移植すると、それらを容易にTSUBAME上でペタフロップススケールに加速できるようになる」と述べており、これらの実績が2010年春に導入予定のTSUBAME2.0に生かされていくとみられる。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ

マーケット解説

- PR -