AIは人の怒りを鎮めることができるか――信頼できる「対話エージェント」の作り方サイバーエージェント「AI Lab」に聞く(後編)(1/3 ページ)

「人が信頼したくなる、思わず信頼してしまう対話エージェント」を生み出したい……そんなビジョンを掲げ、AIの研究を進める「AI Lab」。企業とさまざまな実証実験を進めているが、その実現にはいろいろな課題もあるという。

» 2018年11月12日 08時00分 公開
[大内孝子ITmedia]

 「人が信頼したくなる、思わず信頼してしまう対話エージェント」を生み出したい――。そんなビジョンを持ち、サイバーエージェント「AI Lab」と大阪大学の石黒研究室がタッグを組んで生まれた共同研究講座。企業との実験を通じ、エージェントやロボットとの対話が生み出す可能性を追究している。

 AI Labで、対話エージェントを研究している馬場惇さんによれば、最近では、人間の感情にアプローチする研究として、カスタマーサポートにおけるクレーム対応にエージェント(対話AI)を使う実験を行ったという。

AIは人の怒りを鎮めることができるのか?

 当時、AI Messengerというチャットbotサービスを開発していた彼らは、「チャットbotという対話エージェントならではの接客はないか」と議論する中で、クレーム対応における感情制御の研究を始めた。何か一つ工夫を入れるだけでも、うまくクレームを処理できるのではないかと考えたという。

 「クレームを制御するという方針の下、吉川雄一郎先生がやっていた『複数人対話』を使い、心理的に均衡な状態を作ったり、バラしたりして、相手の心理をコントロールできないかと考えました」(馬場さん)

 この仕掛けで使われるのが「バランス理論」だ。対人関係における心理状態を説明する理論で、三者以上の存在があるときに、彼らの間でバランスを保とうとする人間の心理状態を表す。そのために、ユーザーとオペレーターの会話に、エージェントという第三者を放り込むのだ。

 一般的に、クレームが起きているときは、ユーザーは「〇〇してください」、オペレーターは「できません」というように会話は平行線をたどる。なかなか互いが歩み寄れないため、ユーザーが持つマイナスの感情は変化しない。

photo 複数人対話を用いた、チャットbotでの怒り制御

 しかし、そこにエージェントを登場させ、ユーザーと共にオペレーターに詰め寄ると2対1の構図になる(バランス理論においては、この状態は均衡と定義される)。そこからエージェントが徐々に態度を軟化させていくと、三者の関係は崩れる。その崩れた関係を修復するかのように、ユーザーも態度を軟化させざるを得なくなる仕組みだ。ただ、怒りの制御方法においては諸説あり、AI Labの中でも議論が分かれているという。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ