ニュース
» 2008年09月24日 00時00分 UPDATE

スパコンはフロンティアへの案内役か――スパコンとHPCのはざまで

規模ばかりが話題になるスパコンだが、それがどのように使われているのかは意外にあいまいな理解で済ませている方も多いだろう。HPCを“ハイ・パフォーマンス・コンピューティング”であると理解しているのなら、最新の動向を一度見てみることをお勧めする。スパコンの歴史をよく知る日本SGIの田坂隆明氏に話を聞いた。

[西尾泰三,ITmedia]

演算ニーズはとどまることを知らない

 わたしたちが暮らすこの地球が、数十年前と比べて何か変化している、とお感じの方は少なくないと思われる。連日猛暑が続く夏、降雪の少ない冬といった季節ごとの変化、または、ここ最近で頻発しているゲリラ豪雨などの発生は、そうした変化を感じさせるに十分なものだ。地球の観測を通してこうした問題を発見、わたしたちに警鐘を鳴らしている組織や機関は少なくない。米国のNASAもその1つだ。

tnfig4.jpg NASAで稼働するColumbia(Photo Credit:NASA Ames Research Center/Tom Trower)

 複雑な計算課題を解くために、2004年にNASAに導入されたSGI Altixシステムが「Project Columbia」。このシステムは稼働後、広範な分野で画期的な成果を実現してきた。ハリケーン上陸の最大5日前にその進路を予測可能な気象モデル、2つのブラックホールの衝突によって生み出される重力波の可視化などが代表的なものとして挙げられるが、さらなる問題に挑戦するに当たって、NASAは次のシステム構築を急いでいる。

 「ユーザーの演算ニーズは現時点のシステムが提供しているもののはるか上にあるが、現実的にそうした大規模システムを構築していくためには、幾つか解決すべき課題がある」と話すのは、日本SGIのHPC・サービス事業本部で本部長を務める田坂隆明執行役員。SGIは、Project Columbiaの次期システムとして「UltraViolet」というコードネームを持つ次世代スパコンの開発にいそしんでいる。2009年には登場予定のこのスパコンは2PFLOPSの演算性能を提供可能というが、SGIは現在のHPC市場のニーズをどうとらえ、どう解決しようとしているのか。田坂氏に聞いた。

スケーラビリティへの挑戦と課題

田坂隆明 SGIのHPCビジネスを束ねる田坂隆明執行役員

 「HPC市場。それはスケーラビリティへの挑戦」と田坂氏。TOP500 Supercomputing Sitesを見ると分かるように、HPCシステムで用いられるCPU(またはコア)数の増加はとどまるところを知らず、また、クラスタで構築されるケースがほとんどである。そうなると、線形でパフォーマンスが出すことが難しくなるため、結果としてシステムはますます巨大化することになる。

 「大規模なクラスタではノード間をどう連携するかが重要」と田坂氏は肝の部分を端的に表現する。分散メモリクラスタの実効効率は、MPIを使うと数%から10数%程度。1000コア程度のクラスタであれば20%近い効率を出すことも現在では難しくないし、ソフトウェアのチューニングで30%程度に高めることに成功しているユーザーもいるが、分散メモリクラスタの実効性能が悪いことに変わりない。

 しかし、ソフトウェア面だけに頼ってしまうのはハードウェアベンダーとしての名折れであるといわんばかりに、UltraVioletではMPI通信のオーバーヘッドを押さえるような仕組みをハードウェアレベルで実装する方法を選択した。これはMOE(MPI Offload Engine)と呼ばれるもので、仕組みとしてはすでにAltixシステムで採用されているTOE(TCP/IP Offload Engine)と同様のものだ。

 次に田坂氏は「共有メモリの利点はまだその価値を保ち続けるだろう」とも話す。超大規模なシステムでは、取り扱うデータ量もケタ違い。共有メモリで性能の出るコードは確実に存在するため、そのニーズに応えていく必要がある。田坂氏はCrayに在籍していたこともあるが、そんな同氏は共有メモリをこう振り返る。

 「Crayの歴史を振り返ると、最初はプロセッサのクロックをどんどん上げ、そのクロックに追随できるメモリを用いることでシステムを構築していたが、次第にメモリバンド幅を確保するためのコストが現実的でないものになった。そこで並列化もしくはレジスタのパイプを増やす方法などが考え出されたが、いずれにせよベクター機で1ノード32CPU以上のシステムはコスト的にも設置面積的にも構築が現実的ではなくなっていた。

 一方、チップにキャッシュをつけることでメモリバンド幅を上げずにピーク性能を向上させる方法を選択したスカラ機でも1ノード32CPU構成は1つの壁だった。SGIはCrayLinkの技術を利用してこの壁を破ると、インターコネクトの部分を改良していくことで、4世代目のNUMALINKで2048CPUのシステムを共有メモリで利用できるまでにした。そしてUltraVioletでは、NUMAlinkの5世代目となる技術が用いられ、最大8Pバイトのグローバル共有メモリが利用可能になる予定となっている。大規模なデータとメモリをハンドリングする機構を備えたASICコントローラ『UVHUB』を新開発し、ハードウェアレベルでの解決を図っている」(田坂氏)

 田坂氏は、NASAには共有メモリのシステムで線形にスケールするコードが存在しており、より大規模な共有メモリのシステムを求めていると話す。「その要望が確実に存在する以上、わたしたちはそれに応えるのみ。ベクターの存在意義と同じです」とハードウェアベンダーとしての誇りをのぞかせる。

共有メモリとクラスタの融合

 ユーザーの演算ニーズははるか上にあるとはいえ、その時代の最先端の技術でそれらに応えようとするHPC市場。しかし、システムの大規模化に伴って、その冷却効率と電源効率ももはや無視できないレベルとなった。上述したように、現在のスカラ機のアーキテクチャでペタスケールのシステムを構築しようとすると、数万単位のプロセッサコアが必要となる。CPU自体のリーク電流を軽減できたとしても、これだけの規模になるとシステムレベルでの問題は解消できていないことになる。

 これに対し田坂氏は、「Crayはベクターの機構そのものよりむしろ冷却関係の特許を重視していたが、UltraVioletにはそうした技術が多く盛り込まれている。ワット当たりのパフォーマンスでTOP500のマシンをランキングし直したGreen500で汎用のCPUを用いたSGIのスパコンが上位に来るのはそうした技術の現れ」と明かす。その一部はインターコネクトにSGI NUMAlinkではなくInfiniBandを用いて構成されているAltix ICEのアーキテクチャにその一端をみることができる。コストパフォーマンス的に何がベストかを考えた結果ではあるが、クラスタ型のブレードアーキテクチャとの融合は必然であると話す。

 「UltraVioletは分散メモリでも共有メモリでも“使える”システムでなくてはならない。共有メモリ型アーキテクチャのSGI Altix 4700とクラスタ型アーキテクチャのAltix ICE、この2つのメリットを兼ね備えたシステムを提供する」(田坂氏)

 「UltraVioletは、XeonとItaniumを搭載する2つの系が用意され、Xeon系としてNehalem EXを搭載したものがまず登場する予定となっている。Itaniumの系に対するニーズも変わらず存在するが、今日の顧客が求める規模のシステムを構築するには、マルチコア化が進んでいるXeonの方がコスト面を考えると構築しやすい」(田坂氏)

“最低限の満足”で終わらせないために

 ハードウェアベンダーとしてはユーザーの演算ニーズを満たすべく、日々研究開発にいそしんでいるが、一方で、ハードウェアのスペックが意味を持たなくなりつつあると田坂氏は話す。

 「ユーザーからすれば、スカラだベクターだというのはもう意味のない議論で、アーキテクチャは何でもよい。LINPACKのようにやり方次第でピーク性能に近いものが出せてしまうようなものではなく、ユーザーのプログラムを走らせるベンチマークでどれだけの性能がでるのかが重要。I/OベンチマークやMPIの通信性能を測るベンチマークなども行いながら、システム全体の処理性能が問われている」

 そうした市場の正当な進化に対して、ベンダーとしての課題も感じているという。

 「昨今は購買部門の力が強くなった、という感じがする。現場から、『こういう性能を持ったものがほしい』という要望が上がってくると、購買部門は“同じスペックで最も安いもの”を導入することになる。そうすると、コストは最適かもしれないが、最低限の満足しか得られなくなるリスクがある。目に見えないわれわれの価値をどうユーザーに可視化するかはベンダーの課題」(田坂氏)

HPCは「ハイ・プロダクティビティ・コンピューティング」の時代に

 日本SGIは10月23日、「日本SGI ソリューション・フォーラム '08 Autumn」というイベントを開催、HPC分野を中心に最新の動向を披露する。

 HPCに限らず、民間での導入事例は“実は数年前の枯れた事例”が紹介されることも珍しくないため真のトレンドを見失いがちだが、今回のフォーラムには、NASAや防災科学技術研究所といった最新の導入事例がズラリと並ぶ。

tnfig5.jpg スパコンがわたしたちの生活をどう変えたのか。それを知るいい機会に

 「大規模システムは増えているが、実際にそれが何に使われているのか、どんな役に立っているのか、というのをぜひご覧いただきたい」と田坂氏。その言葉には、HPCという言葉に対する考えを変える時期である、という思いが込められている。

 一昔前は、スパコンといえばベクター機を指していたので、差別化を図りたいスカラ機陣営はHPCという言葉を作り出した。当時は、“ハイ・パフォーマンス・コンピューター”だったが、次第にHPCはハードウェアだけにあらずという考えから、“ハイ・パフォーマンス・コンピューティング”と呼ばれるようになり今日に至る。ただ、木を見て森を見ずの状態から森も見るようになったとはいえ、性能だけを語っていたことに変わりはない。

 「性能のアピールからそうした性能で得られる結果は何なのか、その生産性は、という点が注目されるようになり、HPCは“ハイ・プロダクティビティ・コンピューティング”であると考えるべき時代となっている。コストを掛けて性能を10倍にしても、使う人間の能力が追いつかなければ意味がない。そうした現場ではどう対処しているのか、それを紹介できるだろう」(田坂氏)

関連キーワード

SGI | スーパーコンピュータ | HPC | クラスタ | NASA


Copyright© 2016 ITmedia, Inc. All Rights Reserved.

Loading

ピックアップコンテンツ

- PR -

注目のテーマ

マーケット解説

- PR -