スマートグラス、3Dカメラ、ロボット――Qualcommの「Snapdragon」が目指す新しい世界Uplinq 2014(2/2 ページ)

» 2014年09月26日 21時02分 公開
[鈴木淳也(Junya Suzuki),ITmedia]
前のページへ 1|2       

プロセッサの進化で何が可能になるのか?

 Uplinq初日の基調講演後半では、Qualcomm Technologies製品マネジメント担当SVPのRaj Talluri氏が登場し、Snapdragonを利用した応用事例の数々を紹介した。こうした応用事例におけるポイントの1つは、「処理性能の向上でできることが増えたこと」。応用技術を可能にする技術開発もさることながら、Talluri氏が「Yesterday's beyond is real.」というように、昨日までの越えるべき壁がプロセッサ技術の進化で今日ではすでに可能になっている。

photophoto Snapdragonファミリーを紹介。すべてのラインで4G接続機能を提供していく(写真=左)。モバイルの進化の速さを象徴するのが「Yesterday's beyond is real.」というフレーズ。今回のUplinqイベントを象徴する言葉だ(写真=右)
photo Pelican Imagingの格子状3Dセンサー技術。16個の細かいカメラセンサーを組み合わせ、3D映像を取得する

 典型的なものの1つが3Dカメラ技術で、単純に2つのカメラ撮影による立体視だけではなく、目の前に映る物体の奥行きや距離までを認識可能にする技術だ。MicrosoftがKinectで採用したPrimeSenseの技術が有名だが(同社は後にAppleが買収)、通常の2Dカメラに加え、映像の“奥行き”を測る「深度センサー」を別途搭載し、両者の映像を組み合わせて目の前の“像”の立体構造をコンピュータが認識する。ただ、これでは一方向からの映像に過ぎないため、さらにターゲットとする物体の周囲をカメラで撮影することで、物体全体の構造を理解し、3Dプリンタでそのまま出力が可能なモデルデータを取得する。

 同種の技術やデモはUplinqの前週にサンフランシスコで開催されたIDFでIntelが「RealSense Snapshot」として紹介しているが、Qualcommのデモではそれとは異なる「Pelican Imaging」の技術を用いている。SnapdragonのリファレンスデザインであるQRDのタブレットに16個の小さなイメージセンサーから成るカメラを搭載し、3D撮影を行う。このイメージセンサーから得られた情報をコンピュータ処理で解析することで、前述の2Dカメラ+深度センサーと同様のデータを得られる。

photophoto
photophoto 物体を3Dセンサー搭載のタブレットで3Dスキャニングを行い、立体の格子データを生成して3Dプリンターで出力する。もちろん、出力には時間がかかるため、最後の部分だけはあらかじめ撮影したビデオを早まわしで再現していた

 こうした処理が持ち運び可能なタブレットで実現できるのも、近年プロセッサの処理能力が大幅に向上したことが背景にある。これとは別に、Qualcommが出資するMantis Visionの3Dカメラ技術「MV4D」も紹介された。Mantis Visionの技術は前述RealSenseと同じ、赤外線照射で物体の奥行きを測る深度センサーを搭載する方式で、Pelican Imagingのものとは異なる。

photo Qualcommが出資するイスラエルのMantis Visionが開発した「MV4D」という3Dセンサー技術。Pelican Imagingの手法とは異なり、赤外線照射で深度を測るセンサーを搭載する

 このほか、Snapdragonの応用例としてShazamの音楽認識技術のデモも披露された。ShazamはAppleがiOS 8で採用して話題となったが、いま流れている曲名が何かを膨大な音楽ライブラリとマッチングさせて検索を行う技術だ。街中で、カフェで、テレビで……など、ふと耳に入った音楽が何かを知りたいというシーンは多いだろう。これをスマートフォンなどを使ってデータベースへの参照が可能な形へとリアルタイム変換し、曲名をクラウド上から引き出すという一連の操作に、プロセッサパワーは無縁ではない。これも処理能力向上とともにできることが増えた証左の1つだ。

photophotophoto SnapdragonとShazamの音楽認識技術を組み合わせ、会場に流れるBGMの曲名を当てるデモ。ShazamはAppleとの提携も行っており、今後注目の技術の1つかもしれない

 そして今回、次世代のフラッグシップとなる「Snapdragon 810」プロセッサが紹介された。同シリーズとしては初の64ビットプロセッサで、2015年前半での製品出荷を目指している。概要自体は今年のComputex 2014で紹介され、今回も機能の詳細については公表されなかったものの、初となる実動作デモが披露されている。車をリアルタイムレンダリングするデモで、色や光源の変更を施しても即座にそれが反映され、これがリアルタイムによるレンダリングであることを証明しているという。おそらく、2015年1月のCESのタイミングには、より詳細な機能紹介を含めてさまざまなデモが披露されるだろう。

photophotophoto 製品概要自体はすでに発表されている64ビット対応プロセッサの「Snapdragon 810シリーズ」だが、今回のUplinqで初めてライブデモが公開されている。物体をリアルタイムでレンダリングするデモで、配色やライティングを変更しても、それがすぐに映像に反映されるのを示すことで、これがプリレンダリングではないことを証明している
photo 今回、特に注目を集めていたのが、Brain Corporationが開発したSnapdragon搭載のミニロボットのデモ

 講演の最後に、Snapdragonを搭載したBrain Corporationのミニロボットが紹介された。先ほどのMicro Roverと被る部分もあるが、こちらは「学習機能」に重点を置いている点で異なる。例えば、障害物が多数配置されたエリアを一定のルートで移動するようリモートコントロールで何度か移動させていると、ロボットはあるタイミングでそれを学習し、同じルートを自動で動けるようになる。また、正面に搭載されたカメラで人のモーションを認識できるようになっており、これを使って“ペット”のように人が手のモーションでロボットの動きを制御できたりと、非常に自然でスムーズな反応を見せる。技術の進化のすごさを垣間見た瞬間だった。

photophoto
photophoto ロボットは学習機能を持っている。目の色が青や赤の状態のときは、リモートコントロールで操作されて、障害物を指示通りに避けながら移動するだけだが、一度学習が完了すると目の色が緑に変化し、学習したルート通りに自身で移動できるようになる
photophoto
photophoto 目の前の人間のモーションを学習することも可能だ。例えば「片手を前に掲げると“後退”」「両手で手招きすると“前進”」という形でモーションとリモートコントロールを組み合わせながら学習させると、まるで生きているかのように自然な動きで挙動を制御できる
前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

2024年04月25日 更新
  1. ワコムが有機ELペンタブレットをついに投入! 「Wacom Movink 13」は約420gの軽量モデルだ (2024年04月24日)
  2. 16.3型の折りたたみノートPC「Thinkpad X1 Fold」は“大画面タブレット”として大きな価値あり (2024年04月24日)
  3. 「IBMはテクノロジーカンパニーだ」 日本IBMが5つの「価値共創領域」にこだわるワケ (2024年04月23日)
  4. 「社長室と役員室はなくしました」 価値共創領域に挑戦する日本IBM 山口社長のこだわり (2024年04月24日)
  5. Googleが「Google for Education GIGA スクールパッケージ」を発表 GIGAスクール用Chromebookの「新規採用」と「継続」を両にらみ (2024年04月23日)
  6. バッファロー開発陣に聞く「Wi-Fi 7」にいち早く対応したメリット 決め手は異なる周波数を束ねる「MLO」【前編】 (2024年04月22日)
  7. ロジクール、“プロ仕様”をうたった60%レイアウト採用ワイヤレスゲーミングキーボード (2024年04月24日)
  8. あなたのPCのWindows 10/11の「ライセンス」はどうなっている? 調べる方法をチェック! (2023年10月20日)
  9. ゼロからの画像生成も可能に――アドビが生成AI機能を強化した「Photoshop」のβ版を公開 (2024年04月23日)
  10. MetaがMR/VRヘッドセット界の“Android”を目指す 「Quest」シリーズのOSを他社に開放、ASUSやLenovoが独自の新ハードを開発中 (2024年04月23日)
最新トピックスPR

過去記事カレンダー