スマートフォンを使ったもう1つのデモとしては、「Avatar Video Chat」も面白い。この技術では、カメラで人物の表情を取得してデータ化した上で特徴を把握し、これをリアルタイムで画面に反映させてチャットを行う。直接人物の映像でビデオチャットを行わない理由の1つは、Xbox Liveなどで普及しているアバター同士のコミュニティで“違和感のない”コミュニケーションを実現するためだ。
加えて、2つめの理由がデータ容量の節約にある。Avatar Video Chatでは、ユーザーの顔にある表情の特徴だけを取得するため、送信データも軽くて済む。そのおかげで、通信条件の悪い3G回線でも問題なくビデオチャットができることになる(数十Kbps程度の通信速度でいいという)。なお、内蔵カメラを使った表情データの取得と処理は、スマートフォンでも十分可能だとIntelは説明している。デモでは、Lenovoの“Medfield”世代のAtomを内蔵したスマートフォン「K800」を用いていた。
身近な生活をテーマにした展示では、自宅や外出先、特にショッピングなどで活用できそうなデモを行っていた。その中には、Intelの開発者カンファレンスである「Intel Developer Forum」(IDF)でも何度か登場している、大画面スクリーンの前に立つと人物のモーションを認識し、画面にある服をユーザーのジェスチャーで選択すると、実際に動きながら試着を楽しめるというデモもあった。この仕掛け自体は目新しいものではないが、服のオブジェクトに対して物理演算によるモーション処理を施していること、そして、ユーザーが行うジェスチャーの取得に「Kinect」を利用しているのが、これまでのデモから進化した部分といえる。
Kinectは、未来型リテールストアのデモでも使っていた。デジタルサイネージを兼ねた大型スクリーンに表示した各種メニューを、ジェスチャーを使って操作する。このシステムで最大のポイントは、「Andy」と呼ぶ自律タイプの小型ロボットだ。店内を移動してその状況をカメラを通して遠隔地の人間がリアルタイムで把握できる。ディスプレイの内容など、客が実際のリテール店舗をディスプレイで体験することが可能なだけでなく、店側にとっても、在庫状況の把握やディスプレイや陳列が適切に行われているかをテストするために利用できるという。
Copyright © ITmedia, Inc. All Rights Reserved.