具体的に機械は、どこまで人間の感情に寄り添うことが可能になっているのでしょうか。
いま「感情コンピューティング(Affective Computing)」という分野が注目を集めています。これは1997年に米MITのロザリンド・ピカード教授が提唱したもので、表情や声といったインプットを基に、機械に人間の感情を理解させたり、逆にそれを再現させたりすることを目的としています。
実際にさまざまな形でそうした技術が実現されているのですが、例えば2015年にマイクロソフトがネット上で公開した「エモーションAPI」もその1つ。これは人間の顔が写っている写真をアップロードすると、その表情に含まれている感情の要素を「怒り」「軽蔑」「驚き」など8項目に分解して、数値化してくれるというものです(図2参照)。人間の感情は「喜び」や「悲しみ」など、簡単に割り切れるものではありません。「嬉しい驚き」のような感情もあるでしょう。しかしそうした複雑に入り組んだ感情についても、機械で数値化できるまでに至っているわけです。
一方で、感情を表現する方の研究も進んでいます。音声合成エンジンを開発しているエーアイは、「AITalk」という音声合成ソフトを販売していますが、この製品では「喜び」や「怒り」といった感情を、合成した音声に込められるようになっています。
これは人間の感情をリアルに再現するという方向性ですが、そこまで忠実に再現しなくても、簡単な感情の表現で大きなコミュニケーション効果を得られることもわかっています。先日廃業が発表されてしまいましたが、第3回で取り上げた「コボット(協働ロボット)」のパイオニアであったリシンク・ロボティクスの開発した産業用ロボットには、顔にあたる位置にディスプレイが取り付けられ、簡単な表情を映し出すことでさまざまな状態(ロボットが「見て」いる方向や問題の有無など)を伝えるようになっています。
彼らの製品のひとつ「バクスター」では、49種類の表情が用意され、「幸せ」や「驚き」、そして「怒り」など7種類の感情を表現できるようになっています。これにより、いちいちロボットのステータスを文字で確認しなくても、「顔」にあたる部分を見るだけで「あ、何か問題が起きているんだな」などといった状況を咄嗟に把握できるわけですね。
「感情」というコミュニケーション手段を活用することで、より大きな効果を得ている例もあります。そのひとつが、MITメディアラボのパーソナル・ロボット・グループが開発した「Tega」。これは子供の学習を支援するための「ソーシャルロボット」で、子供たちの学習時の感情を理解し、それに合わせた励まし方をしてくれるというものです。
実際に未就学児を対象とした実験を約2カ月間行ったところ、それぞれのTegaが子供たちに合わせた反応をするようになり、学習を促進させる効果も認められたとのこと。相手の感情を理解し、それに合わせて自分も感情を表現することで、効率的に目標を達成する――感情コンピューティングは、こうした実用的なメリットを実現する段階に来ているわけです。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR