IBMではWatsonを紹介するにあたって「Cognitive Computing(認識コンピューティング)」という表現を使っている。コンピュータが問い合わせを理解し、それに対して適切な回答を返すという仕組みだ。よく「AI(Artificial Intelligence)」というキーワードがこの周辺で用いられているが、筆者の認識ではWatsonやMicrosoftが今回発表した一連の仕組みは、いわゆるAIとは違うものだと考えている。
AIでは自ら意志を持って決定するが、WatsonやMicrosoftの自然言語インタフェースは「問い合わせに対して適切な処理」を行う仕組みであり、コンピュータ側にとって何らかの意志が介在する余地はない。厳密にはプログラミング次第と考えられるが、現在想定されているサービスの数々は「コンピュータによる自動処理」という域を出ていない。
意志が介在しないとはいえ、こうしたBotの仕組みは自然言語処理だけでなく、工夫次第でさまざまな機能強化が可能だ。Microsoftが提供しているCognitive ServicesのAPIを活用することで、BotにさまざまなCognitive(認識)機能を付与できるようになる。
例えば画像認識のAPIを追加することで、カメラや写真に写る映像を解析してその内容を理解し、音声認識のAPIを利用することで、普通の人間よりも正確に多人数の会話を聞き取ることができる。このCognitiveなAPI群は、特にCortana型のパーソナルアシスタント機能で大きな効力を発揮するだろう。
音声認識APIでは、複数人の音声会話を自動的に認識してテキスト化(キャプション化)することが可能になる。複数人が同時にしゃべっていたとしても、問題なく内容を聞き取って、まるで聖徳太子のように結果を返してくれる米Microsoftのサティア・ナデラCEOとともにBuild 2016の基調講演に登場したのは、同社ロンドン拠点のBingチームエンジニアであるシャキーブ・シャイク氏だ。同氏は視力にハンディキャップを抱えており、もしこれらのCognitiveなAPI群を活用したアプリケーションで視力を補うことができれば、日常生活がより便利になるという紹介ビデオが会場で流された。このようにBot FrameworkとCognitive Servicesの組み合わせは、非常に大きな可能性を秘めた仕組みだ。
興味深いのは、自然言語処理と認識型APIともに、中国の北京に拠点を置くMicrosoft Research Asia(MSRA)での研究成果がベースとなっていることだ。その成果については過去の連載記事でも紹介したが、MSRAは将来のMicrosoftを担う重要な基盤となりつつあるのかもしれない。
技術のさらなる進化と合わせて、その応用例としてサードパーティーの興味深いアプリケーションがどれだけ出てくるのか、今後1〜2年先の動向を見守っていきたい。
←・前回記事:Windows 7時代のアプリを「10」対応にするメリットは?
Build 2016:Windows 7時代のアプリを「10」対応にするメリットは?
Build 2016:Windows 10公開から1年後の姿はどうなる?
本田雅一のクロスオーバーデジタル:「コンピュータとの会話が日常になる未来」を示したMicrosoft
鈴木淳也の「Windowsフロントライン」:Windows 10の次はどうなる? Microsoft開発者会議「Build 2016」は日本時間3月31日0時30分からCopyright © ITmedia, Inc. All Rights Reserved.