「ほぼ人間」な音声AIは、ビジネス上でもさまざまな可能性を秘めている。例えばコールセンターや顧客サポート業務は、既にAIによる音声合成が大きな効率化を実現している分野だ。そのためSesameのようなマルチモーダルの音声AIが最初に導入される分野になる可能性が高い。
「感情労働(顧客とコミュニケーションする際、一定の感情表現や抑制が求められる労働)」などと呼ばれるコールセンター業務では、顧客の感情に合わせた反応が求められており、それが人間のオペレーターにとって心理的な負担となっている。しかしAIが顧客の感情まで読み取り、それに応じた人間的な感情を示すことができるようになれば、クレーマーやカスハラへの対応をAIに任せることが可能になるかもしれない。
各種メディアやエンターテインメント、クリエイティブ分野にも影響を及ぼすことが考えられる。例えばゲームの世界では、AIがリアルなキャラクターボイスを生成することで、台本にないせりふやインタラクティブな会話(しかも人間のプレイヤーが示す感情に即したもの)が可能になる。対話型のゲームで登場人物がプレイヤーの行動に応じ、即興のせりふを自然な声で返せれば、没入感が格段に高まるだろう。
また音声読み上げ技術の向上により、オーディオブックやナレーションをAIで賄う動きが出てきている。これらも感情的な表現がリアルタイムで行えるようになることで、ニュースやエンタメ番組内で人間のMCと自然なやりとりをするAIアシスタントなどが登場するかもしれない。
ただそうした半面、感情面で進化した音声AIの普及が進めば、それだけ悪影響が出てくることも避けられない。ここで挙げたような、コールセンター業務やメディア・エンタメ業務での音声AI利用は、そのまま人間の雇用の減少という形で影響が出るだろう。
音声AIの普及が進み、消費者がさまざまな場面でその「声」に接する機会が増えれば、よりそれを受け入れる消費者が増え、さらに人間の職が失われると考えられる。企業は利益のために効率化を進めなければならないとはいえ、雇用に大きな影響が出るようであれば、音声AIの導入を慎重に進めることを求める声が高まるだろう。
当然ながら、詐欺などへの悪用も考えられる。AIが合成した音声をいわゆる「オレオレ詐欺」に利用する例は既に発生しており、高額な被害が出たという報道もある。相手の感情を読み取り、当意即妙な答えを返す音声AIが犯罪者の手に渡れば、彼らのターゲットとなった人物が偽情報を信じてしまう可能性が高まることは、火を見るよりも明らかだ。
音声AIを開発・展開する企業には、そうした犯罪への利用を防ぐための対応を積極的に行うことが求められる。
また以前この連載でも取り上げた「感情AI」という観点からも懸念が生まれる。人間の感情をくみ取り、対応できるAIは、人間と感情的なつながりを構築できるというメリットがある。しかし、逆にそれが「ユーザーがAIに対して感情的に依存する」や「AIがユーザーを感情的にコントロールする」といったデメリットとなり得る。
このリスクが厄介なのは、企業側が特に意図していなくても、感情的な副作用が生じ得るという点だ。例えば前回の記事でも触れたが、人間のように振る舞い、コミュニケーションできるチャットbotと会話していたユーザーが、チャットbotの発言を1つのきっかけとして、自殺するに至るという事件が発生している。
また企業がそうしたチャットbotのサービス停止や機能削減を発表した際、既存ユーザーからの大きな反発に直面する事例もある。別に企業側で、ユーザーに害を与えたり、依存させたりすることを狙っていたわけではない。企業の想定を超えた「人間関係」が、人とAIの間に生まれてしまったわけである。
こうした懸念があるとはいえ、今後もさまざまな分野で、高度な音声AIが導入される事例が増えていくと考えられる。何しろ人間は、18世紀から「機械に人間の声をしゃべらせること」を夢見てきたのだ。
その進化は決して止まることがないし、それに魅力を感じるという感情もまた、決してなくなることはないだろう。企業には安易にそれを利用しようとするのではなく、倫理的な観点から、社会的に見て適切なユースケースを具体化していくことが求められている。
AIとの禁断の恋──その先にあったのは“死” 「息子が自殺したのはチャットAIが原因」 米国で訴訟 “感情を理解するAI”の在り方を考える
緑川光の声を再現したAIキャラとおしゃべり、性格も設定可 青二プロと「Cotomo」開発元がタッグ
シャープが“首にかけられる生成AI”開発 NECらも協力、2025年度の実用化目指す
OpenAI、「高度な音声モード」に割り込み減などの新機能
【前編】孫正義×サム・アルトマン 約50分のAI対談を文字起こし 「マサ、金はあるのか?」への回答はCopyright © ITmedia, Inc. All Rights Reserved.