1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意画像認識や音声認識にすぐ使える「リファレンスモデル」も公開(1/2 ページ)

Googleは2018年6月27日、「Cloud TPU」の本番公開に踏み切った。これは、同社の機械学習用ライブラリ「TensorFlow」の処理を高速化するプロセッサ「TPU」のクラウド版だ。「TPUは外販しない。あくまでクラウドで提供する」と同社が強調する理由とは一体何か。

» 2018年07月11日 08時00分 公開
[高木理紗ITmedia]
photo Google Cloudのデベロッパーアドボケイトを務める佐藤一憲氏

 「従来あった『大規模な投資ができる企業でないと、AIは使えない』というイメージを変えたい。だからこそ、TPUの外部向け販売はせず、顧客にとってメリットの大きいクラウドの形式で提供する」――グーグルでGoogle Cloudのデベロッパーアドボケイトを務める佐藤一憲氏は、2018年7月6日に同社が開いたメディアセミナーに登壇し、そう語った。

 Googleは、オープンソースで公開している機械学習用ライブラリ「TensorFlow」での高速処理に特化したプロセッサ「TPU(Tensor Processing Unit)」の機能を、同社のクラウド「Google Cloud Platform(GCP)」上で、「Cloud TPU」として2018年6月27日から提供している(注)。

注:Googleは、2018年2月にCloud TPUのβ版を公開。6月27日に本番サービスを公開(GA:generally available)とした。

TPUが機械学習に登場した意味

 「TPU(Tensor Processing Unit)」は、もともとGoogle社内の機械学習ライブラリとして作られ、2015年にオープンソースソフトウェアとして公開された「TensorFlow」での高速処理に特化したプロセッサだ。

 機械学習には、大量のデータを集めて「学習」させる段階と、学習結果を基に「推論」を行う段階があり、どちらも大量の演算処理を必要とするが、CPUやGPUで主流の32bitもの演算精度は求められていない。またCPUやGPUでは、1つの演算処理を行うたびに記憶領域に書き込む処理を行うなど、演算速度の限界や消費電力の大きさに課題があった。

 一方、TPUは「単純な計算処理を大量に高速で行う」という機械学習の要件を反映し、16bit(学習向け)や8bit(推論向け)などに演算精度を最適化した上で、記憶領域に処理を書き込む頻度を削減。計算コストや消費電力を縮小し、演算速度の高速化を実現した。

photophoto TPU(左)とGPU(右)の仕組みの違いを説明したスライド

 2016年に、推論に特化した最初のモデル「TPU v1」を発表して以来、GoogleはTPUの改良を繰り返し、その次世代モデルである「TPU v2」および2018年5月発表の最新モデル「TPU 3.0」は、推論と学習どちらのニーズにも対応する。

photo TPUの第2世代モデル「TPU v2」
       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ