NVIDIAが予測する2013年のGPUNVISION 08(2/2 ページ)

» 2008年08月29日 17時30分 公開
[鈴木淳也,ITmedia]
前のページへ 1|2       

GPGPUで新市場の開拓を実現せよ

こうしたGPUの強力なパフォーマンスを利用したデータセンター用サーバを構築することで、従来のx86系CPUをベースにしたサーバと比較してスペースや省電力面で優位になる、というのがNVIDIAの主張だ

 これまで、ハイエンドGPUは“エンスージアスト”と呼ばれるパワ−ユーザーやマニアックゲーマー限定のPCパーツという印象の強かった。そのためにNVIDIAもまた特定ユーザーのための企業と考えるユーザーが多かったようだが、GPGPUという新市場とCUDAという開発環境を打ち出したことで、これまでにない新たな市場を開拓することが可能になった。GPUの強力な演算性能を生かして、これまでハイエンドCPUを中心として構成されていたシステムより低コストで、かつ、高速なシステムを作り上げることも不可能ではない。特に浮動小数点演算性能が重要な意味を持つ分野では、メニーコアによる並列性という特徴を生かして、GPUの性能を極限まで引き出せるようになった。

 このように、GPGPUの性能が有効となるのは、膨大な科学技術演算を必要とする、風洞シミュレーションや資源探索シミュレーション、新薬開発、バイオテクノロジーなど、従来はスーパーコンピュータが得意とする分野だ。このほか、短時間に膨大なトランザクションが発生する金融向けシステムなど、さまざまな用途で、GPGPUの性能が期待される。東京工業大学で導入した「TSUBAME」スーパーコンピュータの事例では、PC用の安価な汎用ハードウェアを組み合わせるという方針から、NVIDIAのGPUで高速化させる研究を行っているという。

 NVIDIAではこうしたGPGPU分野向けに「Tesla」というラインアップを立ち上げているが、Teslaを搭載した1Uサーバ「S1070」のほか、ワークステーション向けの拡張カード「C1060」を投入するなど、従来はHPCを使っていたが、GPGPUの処理性能の恩恵を受けるであろうユーザーに対する売り込みを積極的に行っている。

 例えば、100TFLOPSの処理能力を持つシステムをデータセンターで構築する場合、Teslaを採用したシステムでは4TFLOPSの処理能力を持つS1070を25台並べて1つのラックに収納すればいいのに対し、通常のPCサーバでは1000台以上のサーバを50以上のラックに並べて配置しなければならない。消費電力やイニシャルコスト、運用コストを考えればその差は歴然だろう。GPGPUがこれまでハイエンドGPUとは無縁だったデータセンターのクライアントからも注目を集めているのには、こうした理由があるのだ。

Teslaのラインアップを導入したシステムでは、データセンタ用に1Uサーバサイズに(写真=左)、通常のワークステーションやデスクトップPCでもPCI Expressカードのサイズに収まるという(写真=右)

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー