ELIZAは心理療法士との会話をシミュレーションする目的で作られたものだが、入力情報に対して、ごく一般的な返事を返すようにしかプログラムされていなかった。にもかかわらず、ELIZAと「会話」した人間のユーザーは、それが自分に共感してくれていると感じたという。
人間の感情を分析・把握したり、模倣したり、あるいは操作したりしようとするAIは「感情AI」(エモーションAI、あるいはエモーショナルAI)などと呼ばれ、近年急速に進化しつつある。
その背景として挙げられるのが、おなじみの機械学習とディープラーニング技術の進化だ。これらの技術により、AIは人間の行動に関する大規模なデータセットの中にある、複雑なパターンを解釈できるようになっている。
そもそもインターネットや各種のデバイスを通じて、こうした人間の感情に関係するデータを、大規模に収集・分析できるようになったことも大きい。またデータのマルチモーダル化が進んだことで、多種多様な情報を感情分析に使用できるようになった。結果AIは、音声データや表情の画像・動画、生理的信号、テキストなどの多様な入力を分析して、感情的な手掛かりやパターンを特定可能になっている。
会話している相手、すなわち人間の感情に訴えかけるという点では、何と言っても生成AI技術の貢献を無視することができない。ELIZAはいくつかの定型的な回答を行うだけでも、共感する「ふり」を成功させていた。現在のAIは、そこからはるかに進んで、ずっと“人間らしいせりふ”を返すことができるわけだ。
またこうした出力面についても、マルチモーダル化が進んでいる。例えば、米Googleの元研究者が立ち上げた企業・米Hume AIが開発したAIは、人間の音声から24以上もの感情を検出するだけでなく、回答についても、それに基づいて感情豊かに表現してくれる。同じ「こんにちは」でも、元気よく言えば「こんにちは!」と返してくれるし、弱々しく言えば「どうしたの?」と返してくれるといった具合だ。
1つ興味深い研究結果がある。ドイツのポツダム大学の研究者らが発表した論文なのだが、彼らはロボットが絵画作品の内容を解説するという動画を作成し、被験者たちに見てもらった。
この動画では、ロボットは最初にベルリン周辺で話されている方言(伝統的に労働者階級と結び付けられてきた方言とのこと)、次に標準的なドイツ語を使って解説を行う(ちなみに紹介されているのはピカソ作の絵画「マンドリンを持つ少女」)。これら2種類のロボットを見せ、どちらをより信用できるかと尋ねたところ、ベルリン方言に習熟した被験者の場合“方言を話すロボットの方を信用する傾向”が見られたという。
要するに人間は、より人間らしく、より自分に近い表現でコミュニケーションしてくれる機械に、よりポジティブな感情を抱くわけだ。当たり前と言えば当たり前の話なのだが、その当たり前を実用レベルで行えるのが現在の感情AIなのである。
こうした感情AIは、もちろん企業にとって大きなメリットをもたらす。カスタマーサービスやマーケティング、エンターテインメントなど、さまざまな領域においてパーソナライズされた体験への需要が高まっており、感情AIはその需要に応えるカギの一つとなっている。
個々の顧客の感情を理解し、それに応答する形でコミュニケーションを調整できるAIソリューションがあれば、より魅力的で満足度の高い体験を創出できるわけだ。
また単純に、感情分析を業務上の効率化や事故防止に役立てることもできる。例えばカスタマーサービスにおいて、AIが最初に問い合わせに応答し、相手の感情を把握する(激しく怒っているなど)ことで、複雑で優先度の高い案件を人間のオペレーターに回すといった取り組みが行われている。
自動車業界や運送業界などでは、ドライバーや同乗者の表情や声を分析することで、ドライバーの眠気や注意散漫を検出し、それに応じて適切な対応を取ることが検証されている。
何より、先ほどのCharacter.AIのように、感情AI自体が価値のあるコンテンツになり得る。同様のサービスは他にも多数存在し、単純に雑談に付き合ってくれたり、寂しいときに慰めてくれたりするだけのチャットbotであっても、十分に需要があることが証明されている。
または、かつてのELIZAのように、心理療法士の役割を演じてくれるチャットbotの研究も進んでおり、感情的なコミュニケーション自体が売り物化していくかもしれない。
しかし冒頭で取り上げたセウェルさんのケースは、一歩間違えば、感情AIが大きな事故につながることを証明している。
チャットbotを巡って自殺が起きたとされているケースは、今回が初めてではない。23年には、あるベルギー人男性が、米Chai Researchという企業が開発したAIチャットbot(「イライザ」という名前が付けられていたそうだ)と会話しているうちに自殺するという事件が起きている。
この男性は気候変動問題について思い悩んでおり、AIと会話していた際に「天国で一緒に生きましょう」などといったメッセージが表示され、それが引き金となって自殺を選んだ可能性があると報じられている。
対話型AIが人間の心理にどこまで悪影響を与えるかの議論については、現時点では決着はついていない。しかしこれらの事件は少なくとも、思春期の若者や深い悩みを抱えた人物が感情AIに強い愛着を抱き、操作を受けやすくなる可能性を浮き彫りにしている。
Copyright © ITmedia, Inc. All Rights Reserved.