米Googleは4月5日(現地時間)、AlphaGoや様々なサービスで利用しているオリジナルプロセッサ「TPU(Tensor Processing Unit)」についての論文(リンク先はPDF)を発表し、その性能について説明した。
Googleは現在はTPUを、主に人工知能の推論(学習済みモデルを使う)フェーズで使っているという。そのAIワークロードでは、TPUはGPUやCPUよりも15〜30倍高速で、30〜80倍エネルギー効率が高いとしている。
なお、ここで比較しているCPUは米IntelのHaswell世代の「Xeon E5-2699 v3」、GPUは米NVIDIAの「Tesla K80」で、いずれも実際にGoogleのデータセンターで稼働しているものだ。
Googleは約15年前から各種サービスで機械学習を採用している。6年前にはディープラーニングの採用を開始し、その処理には膨大なコンピューティングパワーが必要になることを予測してTPUの開発に着手したという。例えばユーザーが1日当たりGoogleで音声検索を3分使うだけで、2倍のデータセンターが必要になる計算だった。
TPUは現在、Google画像検索、Googleフォト、Google翻訳、Google Cloud Vision APIなどで使われている。
GoogleはTPUの商用化はしないとしているが、今後もTPUの関連情報を公開してくという。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR