ニュース
» 2012年07月26日 09時45分 UPDATE

Keplerに隠れたもう1つの顔を知る:Keplerの“なに”が仮想化対応GPUなのか──日本で「NVIDIA VGX」を解説

NVIDIAは、GPUコンピューティング仮想化プラットフォーム「NVIDIA VGX」を日本の関係者に訴求する説明会を行い、Keplerに実装した“仮想化の仕組み”を紹介した。

[長浜和也,ITmedia]

個人が持ち込むすべてのデバイスで同じGPUコンピューティングを

kn_nvvgx_01.jpg NVIDIA米本社 VGXプロダクト・ライン・マネージャーのウィル・ウェイド氏

 NVIDIAは、GPUコンピューティングにおけるオフィス向け仮想化プラットフォーム「NVIDIA VGX」を日本の関係者に紹介する説明会を行い、NVIDIA米本社 VGXプロダクト・ライン・マネージャーのウィル・ウェイド氏が、プラットフォームの構成と概要を解説した。

 NVIDIA VGXは、“Kepler”世代のGPUで実装したGPUコンピューティングにおけるハードウェア仮想化技術で、その概要は2012年5月に米国で行われた「GPU Technology Conference 2012」(GTC 2012)におけるNVIDIA CEOのジェンスン・ファン氏による基調講演で紹介している。

 ウェイド氏は、NVIDIA VGXを支える技術的動向の1つとして、「Bring Your Own Device」(BYOD)を挙げている。BYODは、ビジネスの現場で、IT管理部門が支給するデバイスではなく、それぞれのユーザーが個人的に選んだ多種多様なデバイスを導入する動きを指す。この普及によって、どのようなデバイスでもPCと同じサービスを利用できるようにするのが、NVIDIA VGXの目的とウェイド氏は説明する。

 NVIDIA VGXプラットフォームは、「VGX Board」と「VGX HyperVisor」、そして「ユーザーが選んだデバイス」(User Selectable Machines)で構成する。NVIDIAは、企業のコンピューティングユーザーを4つのグループに分類しており、このうち、コンテンツを作成する「Designer」と、コンテンツは作成しないが、それに準じるコンテンツにアクセスする「Power Users」のグループをNVIDIA VGXのユーザーとして想定する。ただし、ユーザーの数が最も多い、アプリケーションを利用するだけの「Knowledge Worker」も将来的に対象ユーザーにする予定という。そして、当面においても、何らかの付加価値を提供できるソリューションを予定していると述べた。

kn_nvvgx_02.jpgkn_nvvgx_03.jpgkn_nvvgx_04.jpg GPUコンピューティングの仮想化を必要とする理由としてユーザーがそれぞれ個人的に用意するデバイスを使う「BYOD」の広がりがある(写真=左)。NVIDIA VGXを構成するのは、VGX BoardにVGX HyperVisor、そして、ユーザーが選んだデバイスだ(写真=中央)。NVIDIA VGXは、企業ユーザーのうち「Designer」と「Power User」を対象にする(写真=右)

Keplerを“仮想化対応GPU”と呼ぶ理由とは

 ウェイド氏は、“Kepler”世代のGPUで実装したハードウェア仮想化技術の構成と、従来世代のGPUと比べたメリットも説明した。“Kepler”世代のGPUは、GPUコンピューティングにおける仮想化とクラウドサービス利用を重視して開発したとされているほか、低レイテンシのリモートディスプレイ技術も導入する。また、データセンターにおける大量動作に耐えられる省電力設計も取り入れている。

 “Kepler”より前の世代におけるGPUコンピューティングの仮想化においては、HyperVisorの上に展開した仮想化マシンにおけるグラフィックス処理とエンコード処理をソフトウェアで処理していた。負荷の軽いグラフィックス処理やエンコード処理なら、このソリューションでも実用的な速度が出るが、ユーザーの数が増えたり(仮想化マシンの数が増えたり)、処理が高度になって負荷が高くなると性能が足りなくなる。ウェイド氏は、“Kepler”世代のGPUでは、GPU内部にハードウェアでこの処理を行うエンジンと、処理した結果を各仮想化マシンに直接配信するチャネルを設けることで、速い処理が可能になったという。

 リモートディスプレイにおいても、“Kepler”世代より前のGPUで実現する仮想化マシンにおけるフローと、“Kepler”世代のGPUで実現する仮想化マシンにおけるフローを比較して、遅延時間を短縮できた理由を解説している。それによると、Keplerより前のGPUでは、GPUで描画した結果をGPUのフレームバッファに展開し、その内容をシステムメモリに用意した仮想化マシンにコピーし、それから、色変換仮想とネットワークで映像出力に適したH.264へのエンコード処理をソフトウェアで実行してネットワークに流していた。フレームバッファからシステムメモリ上でソフトウェアによる各処理に時間がかかるため、100ミリ秒以上の遅延が発生していたという。

 Kepler世代のGPUで実装するNVIDIA VGXは、フレームバッファから仮想化マシンへのコピー、エンコード、ネットワークへの出力をすべてKeplerのハードウェアで行う。そのため、処理は10ミリ秒以下に過ぎず、CPUに対する負荷も発生しない。

kn_nvvgx_05.jpgkn_nvvgx_07.jpgkn_nvvgx_06.jpg Keplerより前の世代では、仮想マシンのグラフィックス描画とエンコードはCPUによるソフトウェア処理で行っていた(写真=左)。Kepler世代では、仮想マシンのグラフィックス描画とエンコードをGPUで行い、その結果を配信するチャネルもGPU内部で用意する(写真=中央)。リモートディスプレイも、フレームバッファに展開したデータをシステムメモリ上の仮想マシンにコピーして色変換、エンコード、ネットワーク送出としていたのが、Kepler世代なら、「NVENC」で処理することで10分の1の遅延で済む(写真=右)

Teslaが載るサーバならVGX Boardは搭載可能

 NVIDIAが投入を予定しているVGX Boardの構成は、Kepler世代のGPUを4基実装し、16Gバイトのメモリを載せる。厚さは2スロット分を要する。1基のVGX Boardで100ユーザー(1基のGPU当たりで25ユーザー)がアクセス可能とウェイド氏は説明する。

 なお、同じKepler世代のGPUを利用した仮想化技術として「GeForce GRID」も発表している。オフィス利用を想定したNVIDIA VGXと異なり、主にゲームユーザーを想定するGeForce GRIDでは、1基のGPUで4ユーザーまでアクセス可能としていた。この違いについてウェイド氏は、エンコードの方法を高いフレームレートを必要とするGeForce GRIDと、低いフレームレートでも問題ないNVIDIA VGXで変えているためと説明している。

 また、VGX Boardを搭載するサーバについては、最初に登場するVGX BoardのTDPは150ワット以下になる予定で、すでにTeslaを搭載するサーバにVGX Boardを搭載可能とウェイド氏は述べている。

kn_nvvgx_08.jpgkn_nvvgx_09.jpg 最初のVGX Boardは、2012年の末に登場する予定で、Kepler世代のGPUを4基実装し、メモリは16Gバイト(GPU1基当たり4Gバイト)を載せる。TDPは150ワット以下となる見込みという(写真=左)。すでにTeslaに対応したサーバにVGX Boardは搭載できる(写真=右)

Copyright© 2017 ITmedia, Inc. All Rights Reserved.

この記事が気に入ったら
ITmedia PC USER に「いいね!」しよう