スターナー教授はGlassの技術をベースにしながら、未来のウェアラブルデバイスを形成する研究中の技術を紹介した。
1つ目は、発声せずに口の動きから何を喋ったかを認識できる「Silent Speech Recognition」というインタフェース技術だ。紹介の前に、まずは耳の穴に指を入れて口を動かしてみてほしい。かすかに内部が動いていることが分かるはずだ。
磁石を取り付けた舌の動きと、先ほど体験した顎の動きによって引き起こされる外耳道の変形をセンサーで読み取って文字を入力する。つまり、“読唇”をコンピュータが行える。病気で発声ができなくなった障がい者や、騒音が激しい飛行中の戦闘機パイロットなどに有効としている。
2つ目は、脳波から自然言語を取得する「Brain Sign」だ。事前に言葉を思い浮かべたときの脳波を記録しておき、後から判別できるようにしておくもの。現在は言葉のフレーズを読み取れるようにすることから研究を進めているという。
これら技術は、いずれもウェアラブルの課題である入力インタフェースを改善できるアイデアとして非常に期待できるものだ。「屋外で音声入力するのは恥ずかしい」という日本人ならではの悩みを解決できる可能性がある。
3つ目に紹介されたのは、スターナー教授が現在主に取り組んでいる「Facilitating Interactions for Dogs with Occupations」(FIDO)だ。一言でいえば、動物とのコミュニケーションを補助するセンサーデバイスだ。
例えば、聴覚障がいを持つ人を助ける聴導犬は赤ちゃんの泣き声やドアのチャイム、アラーム、警報などを判別できる。盲導犬なら、階段の前で立ち止まり、階段を下りなのか上りなのかを理解している。しかし、判別はできても人間にそれを伝える手段がなかった。
そこで、犬の「鼻で触る」「かむ」といった動作を検知できる犬用のウェアラブルデバイスを装着してもらい、内容に対応する動作を覚えさせることで、犬が人間とコミュニケーションできるようにするのだという。
「テクノロジーの進歩によって、ウェアラブルで実現できる技術は大きく広がっている」(スターナー教授)
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR