1月初旬にMicrosoftが発表した「IllumiRoom」は、Kinectで部屋の形状を3次元的に把握し、ユーザーの後方に設置したプロジェクタを使って実行中のゲームやアプリケーションに合わせて臨場感のある背景や視覚効果を表示するシステムだ。3次元的に部屋の物体を把握しているため、画面外に投影する情報はオブジェクトの存在を認識する形で自動的に再計算して、凹凸があっても自然な形で表示する。なお、この技術の詳細については4月の学会で正式発表するという。
このように、Kinectをユーザーインタフェースとして利用している施設や団体は、すでに数多く存在する。研究開発中のケースも含めればかなりの数に上る。米国防総省では、退役軍人のリハビリテーションにも利用しているという。日本では、遊戯施設のほか、大学などの研究機関での利用が多いようだ。
加治佐氏は、MicrosoftがNUIで目指すのは、Kinectのようなモーションセンシングやタブレットデバイスでのマルチタッチ操作だけでなく、音声認識や自然言語解析など、より自然な形でデバイスとの対話が可能になる仕組みだと語っている。
Kinectのハードウェアは、リリースした当時のままだが、後に登場したSDKでソフトウェア的な拡張を続けている。例えば、2012年5月にリリースしたバージョンでは、Kinectを使った顔認識が可能になり、「OAK」のようなシステム開発が容易になった。次期アップデートでは「Kinect Fusion」という新機能を追加するという。この機能では、Kinectを持って移動すると、移動した周囲の風景をデバイスのカメラと深度センサーが自動的に3Dイメージとテクスチャーを生成する。Kinectは、もともと加速度センサーを搭載しているので、デバイス自体を動かすと、その移動成分も検知可能だという。
Copyright © ITmedia, Inc. All Rights Reserved.