Intelは毎年5〜6月ごろに米本社や隣接する展示スペース(2010年でいえばComputer History Museum)を使って「Research@Intel」という基礎研究成果を発表するイベントを開催している。当初は半導体製造技術や並列コンピューティングにおけるコンパイラ実装の発表などが多かったが、ここ2〜3年でテーマが急速に多様化している。
2009年でいえばロボットアームや新型モバイルデバイスなどの比較的民生品に近いものが登場し、2010年に実施されたイベントでは、今回のIDF 2010で取り上げられた情報認識型コンピューティングや新型ユーザーインタフェースのコンセプトモデル、物体認識やAR、音声やテキスト情報の要約システムなど、ユーザー視点から見ても興味ある技術が増えている。
ラトナー氏の講演で取り上げられたSNSとセンサーデバイスを組み合わせたサービスでは、ユーザーの現在の行動をデバイスが認識し、それをアバターの動きで表現してSNSで一覧表示することで、グループメンバーの現在の行動が簡単に把握できるようになる。PVAの機能を補助するものとしては、カメラを通して撮影された画像でオブジェクトが何であるかを認識し、必要に応じて解説やガイドが取得できるというシステムが紹介されている。これは、仕組み的にGoogleの画像認識サービス「Goggle」に近い。
入力で利用するセンサーも多様化している。興味深いのは、同じイメージに対するユーザーの思考がほぼ同じ脳波を示すことを利用して、Brain Scannerを利用した脳波センサーによるコマンド入力に応用するアイデアだ。ただし、ユーザーごとの脳波特性が違うため、実際の利用では一昔前の音声認識技術であった「エンロール」と呼ばれる初期化作業が必要となる。また誤動作を防ぐためのエラー補正機能も必要となるだろう。脳波コントロール技術は思考がダイレクトに反映されるのが怖いが、非常に興味深い取り組みだ。
IDF初日のダディ・パルムッター氏による基調講演ではGestureTekのモーションコントロール技術と、Sixenseの「TrueMotion 3D」と呼ばれる3Dモーションコントロール技術が紹介されている。GestureTekはテレビと一緒に設置されたカメラを通じて目の前のユーザーのモーションを把握する技術で、ユーザーが右に手を動かせば画面が右へと移動し、手を広げる動作を行えば画面が拡大する。Microsoftが2010年の秋に発売する「Kinect for Xbox 360」と同様の機能を実現する。
もう一方のTrueMotion 3Dは、スティック型のデバイスを動かすとバーチャルワールド内のオブジェクトやカーソルが手と同様に動いてユーザーの手の代わりとして動作する。これに立体視対応技術を組み合わせると、ユーザーは仮想空間を立体的に認識できるため、より効果が高くなるという。
折しもIDFが開催された週の金曜日、米国でソニーの「PlayStation Move」が発売となった。これはWiiのリモコン型デバイスのソニー版にあたり、より精密なコントロールが可能という。役割としては先ほどのTrueMotion 3Dと同様のデバイスだが、これをゲームに応用するとどのようなことが可能なのだろうか? 同様のことはKinectにもいえる。
近い将来には、この技術を応用したデバイスがコンシューマー市場に登場して、一般的なユーザーインタフェースとして普及するかもしれない。
Copyright © ITmedia, Inc. All Rights Reserved.