対話が破綻しているかどうかを調べ、分析するためには、対話がうまく続いている例と対話が失敗した例を集める必要がある。そのため、システムと人間の会話データを大量に用意し、各発言についてさまざまな人に3段階で評価をしてもらったそうだ。
「対話が問題なく続くケースに○、内容に違和感があるケースに△、内容が不自然すぎて対話を続けるのが困難というケースに×をつけてもらったところ、4割くらいが△か×、つまり対話が破綻しているんですね。破綻時にリカバリーするというアプローチもありますが、今は破綻そのものを少なくすることを考えています。
そこで、多くの人が△や×をつけるような発言をコンピュータが自動的に検出するシステムを作ろうとしています。システムが話そうとしている内容が、対話を続けるために問題ないかどうかを自動的に検出する技術、これを対話破綻検出技術と言いますが、これに今、日本中で取り組んでいるんです」(東中さん)
そして、この対話破綻検出技術を培う場として、東中さんが主導して始めたのが「対話破綻検出チャレンジ」だ。さまざまな大学や企業の研究者が参加して、検出システム(アルゴリズム)を構築。評価用の対話データを使って精度を競うワークショップだ。2015年、2016年と2回開催しており、2016年に開催したワークショップでは、聴講での参加者を含めて200人ぐらいが集まったという。
「似たような評価型ワークショップの取り組みは、音声認識の分野でも行われており、成功した歴史があったので、『雑談の破綻』でもやってみようと思って始めました。とても自分一人だけで解決できるような問題ではない。だったら日本中でやったほうがいいなと。
海外でも少しずつこうした取り組みが始まっているのですが、日本の方が評価用のデータサイズも大きいし、参加しているチームもすごく多い。この分野では日本がかなり先んじているなと感じています。しかし、米Amazon.comがAlexaで稼働するソーシャルbot開発コンテストを多額の賞金を懸けて世界規模で行っていますし、日本もうかうかしてはいられません」(東中さん)
この取り組みのオーガナイザーには、NTT、NTTドコモ、広島市立大学、HRI-JP(ホンダ・リサーチ・インスティチュート・ジャパン)、大阪大学といった企業や大学が並び、評価用データの提供には、デンソーITラボラトリなども関わっている。
産学の垣根を越えて協力できるのは、まだ要素技術をはぐくんでいる段階であるためだ。とある企業の商用システムを改善する、といったテーマだと競合企業などは参加しにくい。「現在のところは利害関係が薄く、学術的なモチベーションが強いため、参加障壁が低く、技術を磨くのにちょうどよい題材になっている」と東中さんは話す。
Copyright © ITmedia, Inc. All Rights Reserved.