人とAIの共存で進化する「おもてなし」

なぜ、人間と人工知能の対話は“破綻”してしまうのか【総力特集】人とAIの共存で進化する「おもてなし」(1/3 ページ)

雑談対話に特化したシステムやアルゴリズム、超指向性マイクなど、最先端の技術を使っても、人間と人工知能が雑談を続けるというのは難しい。インタビューの最終回では、なぜ対話が破綻するのか、そして、それを解決するための研究の最先端に迫る。

» 2017年02月14日 08時00分 公開
[池田憲弘ITmedia]

 ドラえもんや鉄腕アトムのような、人間と自然に会話ができる人工知能は本当に生まれるのか――。NTTで人工知能による雑談対話を研究している東中竜一郎さんに聞く本インタビュー。本記事(後編)では、対話研究の最先端、そして対話システムや人工知能のこれからについてお話を伺っていく。

人間と人工知能の対話が“破綻”する4つのパターン

photo 筆者も取材でロボットと雑談をした経験があるが、うまくいくときも会話が続かないときもあった(出典:ヴイストン)

 雑談対話に特化したシステムやアルゴリズム、超指向性マイクなど、最先端の技術を使っても、人間と人工知能が雑談を続けるのは難しい。

 対話というのは繊細なもので、不自然な間が空いてしまったり、返答に脈絡がないと感じたりしてしまえば、人は会話を続けるモチベーションが削がれてしまう。対話が“破綻”してしまうのだ。NTTで人工知能による雑談対話を研究している東中竜一郎さんは現在、この対話破綻を少なくする方法について、研究を重ねているという。

 「システム側が発した言葉の意味が分かりにくかったり、ユーザーの質問を無視したりすると、ユーザーは対話をする気がなくなってしまう。こういう状態を“対話破綻”と呼んでいて、それをなくすための努力をしています」(東中さん)

 東中さんによると、人工知能との対話の破綻には大きく4つの種類があるという。まずは「発話」そのものが破綻しているパターン。構文などが崩れていて、そもそも日本語として成立していないケースを指す。

 2つ目は日本語としては正しいが、相手の発言に対する「応答」が破綻しているパターンだ。例えば人間側が「それでは、趣味はなんですか?」と話しかけたときに「最後に旅行されたのはいつですか?」と返してしまうと、やりとりとして成立しなくなってしまう。

 3つ目のパターンは、1回のやりとりとしては成立しているものの、既に話した内容とかみ合わない「文脈」の破綻だ。10秒前には「お菓子が好き」と言っていたのに、すぐに「お菓子が嫌い」と言ってしまうと、話者は混乱してしまう。

 最後は「環境」の破綻で、社会的(常識的)におかしい発言をしてしまうことだ。米Microsoftが公開した人工知能botの「Tay」のように、急に人種差別的な発言をしてしまうようなケースがこれにあたる(関連記事)。

photo 人工知能(システム)との対話が破綻してしまうパターンとその割合(資料提供:日本電信電話)

 「それぞれの破綻がどれくらい起きているかを調べてみると、応答の破綻が約5割、文脈の破綻が約3割くらいでした。発言そのものが破綻しているパターンが1割強で、一般常識が欠如しているようなケースはあまりありませんでした。現状では、特に応答、文脈で破綻しないようにしないといけないと考えています」(東中さん)

 この結果を基に、クラスタリングなどの細かい分析を行い、どのミスが特に破綻につながりやすいかを検討したところ、「人工知能が発した言葉そのものが解釈できない」「ユーザーの質問を無視して他の話をしてしまう」「人工知能の発した言葉の意図が分かりづらい」といったことが挙がったそうだ。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ