最新の研究でも音声合成分野でホットな研究テーマといえば、「より滑らかで人間らしい話し方をできるようにすること」や、「より感情豊かな表現ができるようになること」「少ない音声データで音声合成システムを作れるようになること」などが挙げられる。
これまで以上に簡単に、さまざまなパターンの声を創り出せるようになってきているということだ。
これにより、利用者はニーズや場面に合わせて簡単にAIの声を選べるようになる。男声か女声かだけではなく、淡々と話すのか、感情豊かに話すのか、誰の声を使うのか、という選択だ。
例えば、朝は元気になる声で送り出してもらい、夜はリラックスする声で迎えてもらう、といった具合だ。身の回りのAIの声を全て自分の好きな声にもできるだろう。
先述のLINEの電話応対サービスのように音声コミュニケーションが完全自動化されるケースも増えてくると期待できる。そこで得た「どの声が利用者に行動を促しやすいのか」「どんな話し方だと利用者は心地よいのか」といったデータを活用する段階に入ってくると考えられる。
「AIに操られているようで怖い」という人もいるかもしれない。しかし、特定の人しか持っていなかったスキルが誰でも扱えるようになるのは喜ばしいことではないだろうか。20年は、これまで以上にさまざまなAIの音声に触れる機会が増えてくるはずだ。また多くの議論を巻き起こすことになるだろうが、音声合成技術がどう変わっていき、どう使われるのか、その動向に注目していきたい。
ヤマハ、深層学習で美空ひばりの歌唱を再現 VOCALOIDの技術をAIで発展 NHKで披露
元・女子高生AI「りんな」、エイベックスから歌手デビュー 人間の“息遣い”を再現
LINE、AIが電話応対するサービスで実証実験 都内レストランの予約対応を自動化
Alexa、「嬉しそうな声」や「がっかりした声」で返答できるように(まずは英語で)
Amazon、録音自動削除などのプライバシー関連を含む「Alexa」の新機能を多数発表Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR