IBMではWatsonを紹介するにあたって「Cognitive Computing(認識コンピューティング)」という表現を使っている。コンピュータが問い合わせを理解し、それに対して適切な回答を返すという仕組みだ。よく「AI(Artificial Intelligence)」というキーワードがこの周辺で用いられているが、筆者の認識ではWatsonやMicrosoftが今回発表した一連の仕組みは、いわゆるAIとは違うものだと考えている。
AIでは自ら意志を持って決定するが、WatsonやMicrosoftの自然言語インタフェースは「問い合わせに対して適切な処理」を行う仕組みであり、コンピュータ側にとって何らかの意志が介在する余地はない。厳密にはプログラミング次第と考えられるが、現在想定されているサービスの数々は「コンピュータによる自動処理」という域を出ていない。
意志が介在しないとはいえ、こうしたBotの仕組みは自然言語処理だけでなく、工夫次第でさまざまな機能強化が可能だ。Microsoftが提供しているCognitive ServicesのAPIを活用することで、BotにさまざまなCognitive(認識)機能を付与できるようになる。
例えば画像認識のAPIを追加することで、カメラや写真に写る映像を解析してその内容を理解し、音声認識のAPIを利用することで、普通の人間よりも正確に多人数の会話を聞き取ることができる。このCognitiveなAPI群は、特にCortana型のパーソナルアシスタント機能で大きな効力を発揮するだろう。
米Microsoftのサティア・ナデラCEOとともにBuild 2016の基調講演に登場したのは、同社ロンドン拠点のBingチームエンジニアであるシャキーブ・シャイク氏だ。同氏は視力にハンディキャップを抱えており、もしこれらのCognitiveなAPI群を活用したアプリケーションで視力を補うことができれば、日常生活がより便利になるという紹介ビデオが会場で流された。このようにBot FrameworkとCognitive Servicesの組み合わせは、非常に大きな可能性を秘めた仕組みだ。
興味深いのは、自然言語処理と認識型APIともに、中国の北京に拠点を置くMicrosoft Research Asia(MSRA)での研究成果がベースとなっていることだ。その成果については過去の連載記事でも紹介したが、MSRAは将来のMicrosoftを担う重要な基盤となりつつあるのかもしれない。
技術のさらなる進化と合わせて、その応用例としてサードパーティーの興味深いアプリケーションがどれだけ出てくるのか、今後1〜2年先の動向を見守っていきたい。
←・前回記事:Windows 7時代のアプリを「10」対応にするメリットは?
Copyright © ITmedia, Inc. All Rights Reserved.