ニュース
» 2018年11月21日 18時00分 公開

プライバシーを守りつつAIの利点を活用――「Google Pixel 3」のオンデバイスAI技術

昨今よく話題になるAI(人工知能)。その多くはクラウド(オンラインサーバ)でデータ処理をすることで実現しているが、Googleのスマートフォン「Pixel 3」「Pixel 3 XL」では本体単体でのデータ処理にも注力しているという。そこには、Googleなりのプライバシーへの配慮がある。

[井上翔,ITmedia]

 Googleが11月1日に発売した「Pixel 3」「Pixel 3 XL」。AI(人工知能)を活用したカメラ機能が特徴で、先日のカメラアプリの更新によって「夜景モード」が追加された。

 AIといえば、大量のサンプルデータをコンピュータに入力し、それをもとに作成された学習モデルを使ってさまざまな判断をしていく「機械学習」が思い浮かぶ。昨今の機械学習はクラウド(オンラインサーバ)上で処理を行うものが多いが、Pixel 3/Pixel 3 XLではカメラ機能などで「オンデバイスAI」という端末内で処理が完了する機械学習を取り入れているという。

 なぜ、GoogleはオンデバイスAIに注力しているのだろうか。同社の特別名誉科学者で、オンデバイスAIの研究・開発を担当するブレイス・アグエラ・イ・アルカス氏が報道関係者向けに解説した。

Pixel 3 Google Pixel 3(日本版)
アルカス氏 説明を担当したGoogleのブレイス・アグエラ・イ・アルカス氏。ビデオ会議システム越しでの参加となった

CPUの多コア化が「ニューラルネットワーク」の進化をもたらす

 CPUを始めとする半導体の世界には「ムーアの法則」がある。米Intelの創業者の1人であるゴードン・ムーア氏が提唱した、「半導体のトランジスタ数は18カ月(1年半)ごとに倍増する」という旨の法則だ。これに従うかのように、CPUのトランジスタ数はおおむね1年半ごとにトランジスタ数を倍増していった。

 しかし、2006年を境にそのトレンドに若干の変化が表れる。CPUの主な性能向上手段が「稼働周波数の向上」から「コアの増量」に移行し、トランジスタの小型化も手伝って処理能力の向上と消費電力の削減が進んだ。

 一方で同じ頃、機械学習の分野では脳細胞の構造をモデルとする「ニューラルネットワーク」という処理モデルが大きな前進を見せ始めた。シリアル(単一)な処理を得意としてきたCPUが多コア化することで、ニューラルネットワークの特徴であるパラレル(並列)処理に強くなったからだ。

 「偶然なのか歴史の流れなのかという点について議論はある」(アルカス氏)ものの、CPUが多コア化したことがニューラルネットワークの進化を後押ししたことは間違いない。現在ではHuaweiAppleなどのように、機械学習処理用の処理領域を持つスマートフォン・タブレット用プロセッサの開発を進める企業も増えた。

 アルカス氏は「8年後にはプロセッサの(トランジスタ)の99%はニューラルネットワークの処理に使われることになるだろう」と、個人的な見通しを語る。

2006年は分水嶺(れい) 2006年はCPUにとっての分水嶺(れい)

オンデバイスAIに注力するのは「プライバシーへの配慮」

 Googleも、2013年に機械学習に特化した並列処理プロセッサ「TPU(Tensor Processing Unit)」を開発し、自社のクラウドサービスの一部で利用している他、そのリソースをクラウド経由でサードパーティーに開放している(参考記事)。

 その技術を応用して開発されたのが、2017年10月に発表された「Google Clips」というカメラ(米国限定販売)。「ベストショット」で自動的にシャッターを切る機能や、被写体を学習して画角に入ると自動でピントを合わせる機能に、その成果が現れている。

 これらの機能は、Clips本体内のチップがシーンや被写体を認識して実行される。クラウドの機械学習エンジンに頼ることはない。「(ユーザーの)プライバシーを重視」(アルカス氏)して、「Googleが写真を見ていない(データを受け取っていない)ことを担保する」(同)ためだ。現に、これらの機能はClipsがオフラインの状態でも使える。

Google Clips ある意味でオンデバイスAIの「出発点」となったGoogle Clips(米国限定販売)

 Clipsの技術をさらに応用したのが、Pixel 3/Pixel 3 XLのカメラ。自撮りの際に笑顔や変顔を検出してシャッターを切る「フォトブース」機能や、シャッターを切る前後の写真も保持することでタイミングに起因する撮影失敗を回避する「トップショット」機能は、その典型例だ。ステッカーやキャプションなどをファインダーに挿入できる「Playground」、夜景モードや「超解像ズーム」にもオンデバイスAIが使われている。

 これらの機能に必要な処理は本体内で完結するため、Clipsと同様にデバイスがオフラインの状態でも使える。

ベストショット シャッターを切る前後の写真からベストなものを選べる「トップショット」機能もオンデバイスAIを活用

 その他、カメラによる文字列・数字の認識機能や、流れている音楽を検索する「Now Playing(この曲何)」機能、電話着信時の応答をAIに任せ、相手の発話内容を文字起こしできる「Call Screen」機能(一部の国・地域のみ対応)にも、オンデバイスAIを利用している。

今後は「フェデレーションラーニング」に注力へ

 先述のオンデバイスAIを利用する各種機能は、Pixel 3/Pixel 3 XL内部でモデルを蓄積して機械学習処理をしている。しかし、あくまで“自分だけ”で学習することになるため、学習精度の向上には限界がある。

 そこで、今後Googleでは「フェデレーションラーニング(Federated Learning)」という取り組みを強化する。

 フェデレーションラーニングは直訳すると「連帯学習」という意味。通常の機械学習ではモデルデータを収集することで精度を高めていくが、フェデレーションラーニングではモデルデータの代わりにオンデバイスAIで蓄積した「改善情報」を収集する。

 複数端末から改善情報を集めた後、それをもとに「共有(改善)モデル」を作成し、配信。オンデバイスAIに適用して学習を進め、新しい改善情報を……という手順を繰り返してオンデバイスAIの弱点を克服しようとしている。

  このフェデレーションラーニングは現在、Android版「Gboard」アプリでテスト運用中。「充電中(電源接続中)」「Wi-Fi接続中」「待機中」の3条件がそろった時にのみ実行される。

フェデレーションラーニング フェデレーションラーニングの概念図

ニュース解説番組「NEWS TV」で記事をピックアップ

ITmedia NEWS編集部がYouTubeでお届けするライブ番組「ITmedia NEWS TV」で、この記事を取り上げています。ぜひ視聴・チャンネル登録をお願いします。


Copyright © ITmedia, Inc. All Rights Reserved.

この記事が気に入ったら
ITmedia Mobile に「いいね!」しよう