そして、今回の発表にはハードウェア以上に重要な施策も発表された。それは、MicrosoftのクラウドであるAzureのサービスとして、「Spatial Anchors」と「Azure Remote Rendering」を発表したことだ。
Spatial Anchorsは日本語に訳せば「空間アンカー」。具体的には、HoloLensが把握する「周囲の空間の情報」と「そこに置かれたオブジェクトの情報」のことを指す。
HoloLensを含め、ARで比較的複雑な空間を扱う機器は、周囲の空間の情報を収集した「Spatial Map」(空間マップ)を収集し、合成に利用する。ただし、データの形態や扱いはプラットフォームごとにまちまち。最初から「複数の機器で同じ場所を見ながら、同じようにAR空間を共有する」つもりでソフトを作らないと、「自分が見ているARを他人も一緒に見る」ことはできない。
そこで今回、Microsoftが用意したのがSpatial Anchorsだ。Spatial Anchorsでは、HoloLens 2やAzure Kinectから得た空間マップがAzure上で処理され、「より汎用(はんよう)的な空間マップ」になり、他のプラットフォームからでも活用できるようになる。例えば、iOSのARKitやAndroidのARCoreから使えるようになるのだ。
結果として、この機能を使うとHoloLens 2を持っていない人でも、スマホやタブレットからHoloLens 2で見ている空間をシェアして作業することが可能になる。HoloLens 2はまだ高価な機械なので、社員全員に用意するのは難しい。ARを使った作業に一時的に参加する人はスマホやタブレットを使う、というソリューションの存在は、機器導入のハードルを下げる。これは、多数の人々で作業を進める上では非常に重要なことだ。
もう1つの技術であるAzure Remote Renderingは「ハイクオリティーなデータを性能の低いデバイスでも表示する」ための仕組みだ。
スマートフォンやHoloLens 2は、最新のゲーミングPCやグラフィックワークステーションほどの性能がない。だが工業利用の場合、デザインの現場では圧倒的にディテールの細かい形で製作していて、HoloLensやスマホと連携するなら、そのデータを持ち込む必要がある。
だが現実には、とても機器の性能では表示できないデータであるため、小さく間引いたり、作り直したりする必要があった。ここへの対応は、導入企業にとって日常的な問題だ。
Azure Remote Renderingでは、精密なデータをそのままAzure側でレンダリング処理し、スマホやHoloLens 2へとストリーミング形式で渡す。結果として、表示品質も損なわないし、データの作り直しなどの手間も減る。
これら2つの要素は発表されたばかりで、実際の可用性については検証が必要だ。だが、こうした基盤がVRやARを実用的に使う上では必須であり、Microsoftはそれをきちんと理解している、ということは間違いない。
Microsoftにとって「HoloLens 2でのビジネスを本格化する」とは、HoloLens 2を売ること以上に、「ARやVRをビジネスにするために必要なクラウド基盤で先んじる」ことなのだ。
Copyright © ITmedia, Inc. All Rights Reserved.