ITmedia NEWS >
連載
» 2016年04月01日 20時29分 公開

目指したのは“スマホ画面”に依存しないコミュニケーション――ソニーモバイル「Xperia Ear」に迫る山本敦の「体当たりッ!スマート家電事始め」(2/4 ページ)

[山本敦,ITmedia]

 今回はソニーモバイルの本社にて、まだ開発段階のプロトタイプだが、2月にMWCの会場に展示されたものよりも少し最終製品に近づいた「Xperia Ear」によるデモンストレーションを色々と体験できた。

Bluetoothイヤフォンのような外観。サイズはコンパクトで軽量だ

 本体は完全ケーブルレスのBluetoothイヤフォンのようなコンパクトなデザインだ。耳に装着すると、自動的に音声ナビゲーションが起動する。メニューの一例は「不在着信」(Missing Call)の読み上げだ。筆者が体験した音声ナビゲーションのデモを、文字に起こすとそのやり取りはこんな感じになる。なおこちらのデモは英語版のナビを体験している。

Xperia Ear:ジェニーからメッセージです。“あと30分で付くからね!”ーメッセージに返信しますか?

ユーザー:はい。

Xperia Ear:メッセージをどうぞ。

ユーザー:OK、僕も今からでるよ。

Xperia Ear:メッセージを送信しました。

 開発中のデモ機では落ち着いた声の女性のボイスアシスタントが採用されている。ただ着信があったことを知らせてくれるだけでなく、ソニーモバイルが独自に開発した音声認識エンジンを積んだXperia Earは、自然言語に近いユーザーの音声コマンドを認識して、まるでボイスアシスタントと会話するような感覚で応答できるのが特徴だ。

 ボイスナビによるテキストの音声読み上げと返信に対応するアプリは、今のところ、LINE、Facebookメッセンジャー、WhatsApp、Android端末にプリインストールされているショートメッセージアプリの4つが検討されている。ユーザーが発声した入力内容は自動的にテキスト化されて、対象のアプリから送信できる。メッセージを受けた相手(ここではジェニー)は、音声ではなくテキストのメッセージをアプリで受け取る格好だ。このように、Xperia Earのユーザーは音声を聴きながら一度も画面を見ずに“Look up”したままでメッセージをやり取りできるようになる。

スマホとのペアリングはNFC対応でワンタッチ操作を実現

 この音声認識とメッセージの受信・返信のアルゴリズムもソニーモバイルが独自に開発したものになる。これが搭載されるスマホアプリも、恐らく名称は「Xperia Earアプリ」のようになる予定だ。LINEなど通知を連動させたいメッセンジャーアプリは、ユーザーがXperia Eyeアプリ上でフィルター設定をカスタマイズできる。

ソニーモバイルが独自に開発してきた音声認識システムを搭載

 「不在着信」(Missing Call)への応答・返信のやり取りは、以下のような感じだ。

Xperia Ear:クリストフから10分前に不在着信がありました。

ユーザー:コールバックして。

Xperia Ear:クリストファーに電話します。この方でよろしいですか?

ユーザー:はい

Xperia Ear:発信中です。(呼び出し音:♪♪♪)

 イヤフォン本体内側の、肌に触れる場所に近接センサーが仕込まれており、耳に装着するとこれを検知。クリストファーからの不在着信があったことをボイスアシスタントが自動的に読み上げてくれる。

本体の内側、イヤーピースの根元に近接センサーを内蔵し、肌に触れると自動的にボイスアシスタントが起動する。耳の内側に固定させる曲がった形の「アークサポーター」は着脱交換ができる

 耳に装着した時に発話されるメッセージのパターンはアプリで選択できる仕様になりそうだ。例えば朝一番に装着すると、今日のカレンダーに登録されている予定を知らせてくれたり、使用シーンに最適なメッセージが流れてくる。次の予定が近づくと、内容は動的に変化してコンテキストに応じたメッセージが流れる。複数件たまっていた場合は、それらを続けて発話する。ボイスアシスタントが読み上げてくれるコンテンツは、未読メッセージや不在着信のほかにも、きょうの日付、本体のバッテリー残量、カレンダー、天気、ニュース(ニューススイートアプリがソース)など多岐にわたる。それぞれ読み上げのON/OFFはアプリから設定をカスタマイズすることもできる。

 音声によるハンズフリー操作は便利なように思えて、実際には満員電車や公共施設の中など人混みの中では使いづらいものだ。その点を解消するため、メッセージを聞く場合には、ユーザーが装着した瞬間に自動でメッセージが流れる使い勝手に注力したと青山氏は語る。また、Xperia Earに搭載される予定の「ヘッドジェスチャー」機能にも注目だ。こちらはXperia Earに内蔵する3軸ジャイロセンサーと加速度センサーで“首の縦横の動き”を検知して、「YES」と「NO」をマイクに向かって発話しなくても自動入力できるという頼もしい機能だ。人混みの中で音声入力をしなければならない気恥ずかしさが解消されるだけでなく、まわりがノイジーな環境でも「はい」「いいえ」をより正確に入力できるようにもなりそうだ。

 なお、ユーザーが新規にメッセージを送信したり、こちらから電話をかけることももちろん可能だ。本体の側面パネルがボタンになっているので、これをワンクリックするとマイクがアクティベートする。続いて「山本さんに電話」「山本さんにメッセージを送る」「東京の天気を教えて」といった具合に発話すると、Xperia Eyeが自動的にコマンドを実行してくれる。音声コマンドの定型がいくつか決まったものもあるが、「語尾の変化など、なるべく自然な日本語での言い回しにも対応できるようなアルゴリズムを開発中」(青山氏)だという。

本体を装着したところ。今回筆者もXperia Earの日本語入力など試作機で色々なサービスを体験することができた

 それにしても、ソニーモバイルはいつからこのような音声認識システムの開発に着手したのはいつ頃なのだろうか。

 「Xperia Earにはクラウドサーバ形式の音声インタラクション技術を採用します。当社はこの技術領域を長く研究してきました。一昨年に発売した『SmartBand Talk(SWR30)』という商品に最もプリミティブな一問一答形式の音声認識エンジンが初めて実装されました。そして昨年夏にはBluetoothスピーカー『BSP60』にも同じエンジンを搭載しています。Xperia Earには、これらの製品に搭載したアルゴリズムをさらに進化させ、できることも増やしたエンジンを搭載します。またハードウェアに最適化したチューニングも行っています。今回の新商品のために短期で作り上げたものではなく、当社が長年練り上げてきた音声認識エンジン、クラウドサーバーソリューションを大胆に作り直したものがのると理解していただければと思います」(近藤氏)

 「Xperia Smart Products」の商品化第1号が、Xperia Earとなった理由はどこにあるのだろうか。青山氏がこう答えている。「Look Upというコンセプトを前提に考えた時に、スマホの画面に依存しないライフスタイルを実現するためには、小さく身に着けられるウェアラビリティを実現すべきと考えました。そこで耳に着けて使うヘッドセットタイプのデバイスが第1弾に選ばれました」(青山氏)

 最近ではセンサー技術の進化に伴い、いわゆるウェアラブルデバイスも多様化する一方だ。乗せるセンサー技術にクラウド、アプリとの連携など、メーカー側の“味付け”のセンスも問われてくる。何よりユーザーに価値が伝わりやすい商品であることが大切だ。Xperia Earは、従来のハンズフリー通話をサポートするBluetoothヘッドセットとは一線を画す、新しいコンセプトの商品であると近藤氏と青山氏はこう口をそろえる。

 「耳に装着したデバイスがインテリジェンスを持つことで、メッセージアプリや通話の完全なハンズフリー操作を実現します。視線はスマホに落とさずに“Look up”したままコミュニケーションをより快適なものにしてくれる。本機だけでなく、これからのXperia Smart Productsシリーズはソニーモバイルの得意とする“コミュニケーション”にターゲットを絞って、ユーザーの生活を便利にするエレクトロニクス製品やサービスを形にしていきたいと思っています」

Copyright © ITmedia, Inc. All Rights Reserved.