ニュース
2015年07月30日 10時01分 UPDATE

「Google翻訳」アプリ、ディープラーニング採用で画像読み取りに20カ国語追加

Google翻訳のモバイルアプリの、端末のカメラで映した映像内のテキストをリアルタイムで翻訳する機能が新たに20カ国語に対応した(日本語はまだ)。Googleはこの機能で採用したディープニューラルネットワーク技術について説明している。

[佐藤由紀子,ITmedia]

 米Googleは7月29日(現地時間)、モバイル版(AndroidおよびiOS)「Google翻訳」をアップデートし、1月に追加したカメラで読み込んだ画像内のテキストの翻訳機能に対応する言語を20増やして27カ国語対応にしたと発表した。また、音声による同時通訳機能を高速化した。

 残念ながら日本語はまだ対応していないが、ブルガリア語、カタロニア語、クロアチア語、チェコ語、デンマーク語、オランダ語、フィリピン語、フィンランド語、ハンガリー語、インドネシア語、リトアニア語、ノルウェー語、ポーランド語、ルーマニア語、スロバキア語、スウェーデン語、トルコ語、ウクライナ語が読み取り/書き出しに対応し、ヒンディー語とタイ語が書き出しにのみ対応した。


 Googleによると、この機能は昨年5月に買収した米Quest Visualのディープニューラルネットワーク(DNN)技術に基づくという。DNNは画像や音声の特徴量の機械学習の新たな手法として注目を集めている技術。ノイズの多いデータから有用な特徴量を抽出することができる。

 Googleは、Google翻訳アプリが画像から文字を抽出して翻訳する過程をおおまかに説明している。それによると、Google翻訳アプリはまず画像から同じ色のかたまりを文字として抽出し、そのかたまり同士が近くにあれば単語として認識し、辞書データと照らし合わせてそれぞれの単語を翻訳。結果の文字列を画像の対応する位置に置き換える。

 translate 1 画像から文字を抽出・翻訳する過程

 文字を正確に認識できるようにするために、Quest Visualの「畳み込みニューラルネット」技術を使い、文字と文字ではないものとの違いを学習させた。学習用データは、既存の文字画像に人工的な汚れや歪み、傾きなどを追加した画像を使った。

 translate 2 機械学習用に作成した文字例

 さらに、非常に小さなニューラルネットを開発することで、このプロセスをオフラインで利用できるようにした。ユーザーはコンパクト(最大でも約2Mバイト)な各国語辞書をダウンロードするだけでネットにつながらない環境でもアプリを利用できる。


Copyright© 2016 ITmedia, Inc. All Rights Reserved.

Loading

ピックアップコンテンツ

- PR -