超音波で操作する風船型ディスプレイ 東大が開発:Innovative Tech
風船に映像を投影し、操作することができるディスプレイシステム。どんなメリットがあるのか?
Innovative Tech:
このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。
東京大学の篠田・牧野研究室が11月に発表した「バルーン型ディスプレイシステム」は、超音波を用い、操作する風船に映像を投影できるものだ。
音響放射圧を用いて、風船の3次元位置を非接触で制御し、それに映像を投影することで、空中に映像を映し出す仕組み。風船を手で移動させると、投影した画像も同時に移動するインタラクションも提供する。
開発したシステムは、スクリーンになる風船と、それを操作する複数の空中超音波フェイズドアレイ(Airborne Ultrasound Phased Array、AUPA)デバイス、風船の位置を測定する深度センサー、映像を投影するプロジェクターで構成される。
風船にヘリウムを注入し浮遊させ、天井には、下向きにAUPAを複数台配置する。各AUPAは浮遊する風船の中心に焦点を形成し、そのときに生じる音響放射力を用いて風船の位置を3次元で制御する。プロジェクターによる投影位置は、Microsoft Kinect V2で取得した風船の位置を用いて決定する。
3Dキャリブレーションされたプロジェクターは、風船の表面に映像を投影する。立体投影モードでは、透視補正映像がレンダリングされ、ユーザーは3Dシャッター方式メガネを通して立体映像を目視できる。
映像を投影した風船を超音波で移動させることで、風船だけでなく映像も移動するため、あたかもバーチャルオブジェクトが空中を移動しているかのように感じる。
さらに、ユーザーは風船を手でつかんで物理的に移動させることで、投影した映像を操作できる。こちらも映像が追跡し動くため、バーチャルオブジェクトを操作したように感じられる。
ユーザーが風船をつかんだか否かは、ユーザーの手と風船の距離で判定する。深度センサーで手の位置を追跡し、手が風船に接近したまま一定時間が経過すると、風船をつかんでいると判断し、風船の位置を指示できるようになる。風船をつかんでいる状態では、常に目標位置が現在の位置で更新されるようになっている。
関連記事
- スマートフォン表示のAR物体を手づかみ ブラウン大学など「Portal-ble」開発
Leap Motionとスマートフォンを組み合わせてハンドトラッキングとフィードバックを効果的に実現。 - 蜘蛛の「眼」に学ぶ超小型深度センサー ハーバード大学など開発
正確に標的の場所を捉える蜘蛛の眼の仕組みを応用すると、超小型の深度センサーを作ることができる。 - 粘着力でフィードバックする触覚ディスプレイは、納豆も再現可能? 阪大と東北大の「StickyTouch」
ペルチェ素子を使い粘着力を変化させる技術。新たな触角フィードバックが得られる。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.