“ほんやくコンニャク”の実現はいつ? 音声認識・翻訳技術は「言語」の壁を取り払うか特集・音声言語インタフェース最前線(4/4 ページ)

» 2018年04月20日 12時30分 公開
前のページへ 1|2|3|4       

オンラインとオフラインの壁

 ここで話題は再び“ほんやくコンニャク”に戻る。翻訳精度の向上に膨大なコーパスとGPU等を使ったDNNによる膨大な計算を使うことは、これを実現するクラウド、つまりデータセンターの存在が不可欠となる。常時ブロードバンド環境が利用できるのであれば問題ないが、人々が“万能翻訳機”を利用するための最初のモチベーションである「旅行」用途には少々心もとない。

 これは翻訳の部分だけでなく、いま人気のスマートスピーカーやスマートフォン内蔵の音声アシスタント機能において、音声認識や構文解析にクラウドが用いられているという背景もある。オンラインとオフラインの壁が存在することで、スマートフォン本来の機能が削がれ、どこでも使えるほんやくコンニャクを実現するためのコンパクトな装置の実現が難しいというわけだ。

 そこで登場するのが「インテリジェントエッジ」ということになる。全ての処理をクラウドに依存するのではなく、処理の一部や多くを末端デバイスである「エッジ」に移し、レスポンス向上や通信量の削減を行うものだ。

 これをほんやくコンニャクの世界に当てはめれば、クラウド依存であった音声認識や翻訳機構を「エッジ」側に搭載することで、一部の学習データの送信といった処理を除いたほとんどが端末内で完結し、真の意味でほんやくコンニャクに近付くことになる。

 Qualcommが最新のSnapdragon 845でデモストレーションを行っていたが、年々進むスマートフォンの処理能力向上により、過去数年では難しかった技術のモバイルへの転用が実現しつつある。

Qualcomm Snapdragon 845を使ったオフライン音声自然言語認識のデモ

 こうした最新の成果の一端がうかがえるのが、Microsoftが2017年10月にブログで公開した「Microsoft and Huawei deliver Full Neural On-device Translations」と「Bringing AI translation to edge devices with Microsoft Translator」という2つの記事だ。

 前者は「HUAWEI Mate 10」シリーズに搭載されたKirinプロセッサのNPUを使うことで、「ニューラルネットワーク型翻訳のデバイス内実装を実現したという話。後者はそのデバイス内実装の背景について解説しており、NPUのようなDNNの学習モデルを効率的に実装できる仕組みが登場することで、モバイルデバイス特有の「メモリ」「処理能力」「バッテリー」といった問題を解決できるという。今後、ほんやくコンニャクの実現にあたって重要になるのは機械翻訳手法の向上と同時に、それを実装できる“デバイス”の存在だろう。

Kirin 970を搭載するスマートフォン「HUAWEI Mate 10 Pro」

 ちょうど4月18日にMicrosoft Translatorでオフラインでもニューラル機械翻訳が利用できるようになったことが公式に発表された。これは日本語もサポートしている。ほんやくコンニャクの実現にまた一歩近づいたようだ。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー