Uplinq初日の基調講演後半では、Qualcomm Technologies製品マネジメント担当SVPのRaj Talluri氏が登場し、Snapdragonを利用した応用事例の数々を紹介した。こうした応用事例におけるポイントの1つは、「処理性能の向上でできることが増えたこと」。応用技術を可能にする技術開発もさることながら、Talluri氏が「Yesterday's beyond is real.」というように、昨日までの越えるべき壁がプロセッサ技術の進化で今日ではすでに可能になっている。
典型的なものの1つが3Dカメラ技術で、単純に2つのカメラ撮影による立体視だけではなく、目の前に映る物体の奥行きや距離までを認識可能にする技術だ。MicrosoftがKinectで採用したPrimeSenseの技術が有名だが(同社は後にAppleが買収)、通常の2Dカメラに加え、映像の“奥行き”を測る「深度センサー」を別途搭載し、両者の映像を組み合わせて目の前の“像”の立体構造をコンピュータが認識する。ただ、これでは一方向からの映像に過ぎないため、さらにターゲットとする物体の周囲をカメラで撮影することで、物体全体の構造を理解し、3Dプリンタでそのまま出力が可能なモデルデータを取得する。
同種の技術やデモはUplinqの前週にサンフランシスコで開催されたIDFでIntelが「RealSense Snapshot」として紹介しているが、Qualcommのデモではそれとは異なる「Pelican Imaging」の技術を用いている。SnapdragonのリファレンスデザインであるQRDのタブレットに16個の小さなイメージセンサーから成るカメラを搭載し、3D撮影を行う。このイメージセンサーから得られた情報をコンピュータ処理で解析することで、前述の2Dカメラ+深度センサーと同様のデータを得られる。
こうした処理が持ち運び可能なタブレットで実現できるのも、近年プロセッサの処理能力が大幅に向上したことが背景にある。これとは別に、Qualcommが出資するMantis Visionの3Dカメラ技術「MV4D」も紹介された。Mantis Visionの技術は前述RealSenseと同じ、赤外線照射で物体の奥行きを測る深度センサーを搭載する方式で、Pelican Imagingのものとは異なる。
このほか、Snapdragonの応用例としてShazamの音楽認識技術のデモも披露された。ShazamはAppleがiOS 8で採用して話題となったが、いま流れている曲名が何かを膨大な音楽ライブラリとマッチングさせて検索を行う技術だ。街中で、カフェで、テレビで……など、ふと耳に入った音楽が何かを知りたいというシーンは多いだろう。これをスマートフォンなどを使ってデータベースへの参照が可能な形へとリアルタイム変換し、曲名をクラウド上から引き出すという一連の操作に、プロセッサパワーは無縁ではない。これも処理能力向上とともにできることが増えた証左の1つだ。
そして今回、次世代のフラッグシップとなる「Snapdragon 810」プロセッサが紹介された。同シリーズとしては初の64ビットプロセッサで、2015年前半での製品出荷を目指している。概要自体は今年のComputex 2014で紹介され、今回も機能の詳細については公表されなかったものの、初となる実動作デモが披露されている。車をリアルタイムレンダリングするデモで、色や光源の変更を施しても即座にそれが反映され、これがリアルタイムによるレンダリングであることを証明しているという。おそらく、2015年1月のCESのタイミングには、より詳細な機能紹介を含めてさまざまなデモが披露されるだろう。
講演の最後に、Snapdragonを搭載したBrain Corporationのミニロボットが紹介された。先ほどのMicro Roverと被る部分もあるが、こちらは「学習機能」に重点を置いている点で異なる。例えば、障害物が多数配置されたエリアを一定のルートで移動するようリモートコントロールで何度か移動させていると、ロボットはあるタイミングでそれを学習し、同じルートを自動で動けるようになる。また、正面に搭載されたカメラで人のモーションを認識できるようになっており、これを使って“ペット”のように人が手のモーションでロボットの動きを制御できたりと、非常に自然でスムーズな反応を見せる。技術の進化のすごさを垣間見た瞬間だった。
Copyright © ITmedia, Inc. All Rights Reserved.