人とAIの共存で進化する「おもてなし」

なぜ、人間と人工知能の対話は“破綻”してしまうのか【総力特集】人とAIの共存で進化する「おもてなし」(2/3 ページ)

» 2017年02月14日 08時00分 公開
[池田憲弘ITmedia]

「対話破綻検出チャレンジ」で日本中が団結

 対話が破綻しているかどうかを調べ、分析するためには、対話がうまく続いている例と対話が失敗した例を集める必要がある。そのため、システムと人間の会話データを大量に用意し、各発言についてさまざまな人に3段階で評価をしてもらったそうだ。

 「対話が問題なく続くケースに○、内容に違和感があるケースに△、内容が不自然すぎて対話を続けるのが困難というケースに×をつけてもらったところ、4割くらいが△か×、つまり対話が破綻しているんですね。破綻時にリカバリーするというアプローチもありますが、今は破綻そのものを少なくすることを考えています。

 そこで、多くの人が△や×をつけるような発言をコンピュータが自動的に検出するシステムを作ろうとしています。システムが話そうとしている内容が、対話を続けるために問題ないかどうかを自動的に検出する技術、これを対話破綻検出技術と言いますが、これに今、日本中で取り組んでいるんです」(東中さん)

photo 人工知能(システム)との対話を3段階で評価した例。一連のやりとりにおけるシステム側の発言を30人で評価した結果だ(資料提供:日本電信電話)
photo 人工知能(システム)との対話が破綻してしまう例。こちらは24人が評価している。Ex2の内容は質問には答えていないものの、「東京」という単語についてはつながりがあるため、破綻している感じた(×をつけた)人は少なくなった。言葉が少し違うだけで破綻と感じるかどうかが変わることが分かる(資料提供:日本電信電話)

 そして、この対話破綻検出技術を培う場として、東中さんが主導して始めたのが「対話破綻検出チャレンジ」だ。さまざまな大学や企業の研究者が参加して、検出システム(アルゴリズム)を構築。評価用の対話データを使って精度を競うワークショップだ。2015年、2016年と2回開催しており、2016年に開催したワークショップでは、聴講での参加者を含めて200人ぐらいが集まったという。

 「似たような評価型ワークショップの取り組みは、音声認識の分野でも行われており、成功した歴史があったので、『雑談の破綻』でもやってみようと思って始めました。とても自分一人だけで解決できるような問題ではない。だったら日本中でやったほうがいいなと。

 海外でも少しずつこうした取り組みが始まっているのですが、日本の方が評価用のデータサイズも大きいし、参加しているチームもすごく多い。この分野では日本がかなり先んじているなと感じています。しかし、米Amazon.comがAlexaで稼働するソーシャルbot開発コンテストを多額の賞金を懸けて世界規模で行っていますし、日本もうかうかしてはいられません」(東中さん)

 この取り組みのオーガナイザーには、NTT、NTTドコモ、広島市立大学、HRI-JP(ホンダ・リサーチ・インスティチュート・ジャパン)、大阪大学といった企業や大学が並び、評価用データの提供には、デンソーITラボラトリなども関わっている。

 産学の垣根を越えて協力できるのは、まだ要素技術をはぐくんでいる段階であるためだ。とある企業の商用システムを改善する、といったテーマだと競合企業などは参加しにくい。「現在のところは利害関係が薄く、学術的なモチベーションが強いため、参加障壁が低く、技術を磨くのにちょうどよい題材になっている」と東中さんは話す。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ