Googleは「TensorFlow」のパフォーマンスを向上させるため、Cloud TPUというマイクロプロセッサを提供している。クラウド機械学習市場で有力な立場を築いているかのように見えるGoogle Cloud Platformだが、TPUには課題も見られる。
クラウドで機械学習のワークロードが増加を続けている。これをサポートするため、Googleは同社の「Compute Engine」プラットフォームの一環として、特殊な用途向けのマイクロプロセッサを展開している。同社は大手クラウドプロバイダーの一員として、人工知能(AI)技術を用いたアプリケーションを自社インフラでサポートする能力を競っている。このマイクロプロセッサは、その取り組みの最新例の1つだ。
「市場と技術という両方の要因の相乗効果として、Googleのようなベンダーは、パフォーマンスの高いクラウドサービスを新たに開発せざるを得なくなっている」と話すのは、Moor Insights & Strategyのハイパフォーマンスコンピューティングとディープラーニング部門のコンサルティングリードを務めるカール・フロイント氏だ。
Googleは、オープンソースの「TensorFlow」フレームワークを用いる機械学習アプリケーションのパフォーマンスを向上させるため、「Cloud Tensor Processing Unit」(Cloud TPU)というチップを設計した。Cloud TPUが全ての企業のニーズを満たすことはないとしても、機械学習モデルのトレーニングや導入には、CPUやGPU以上に数多くのメリットをもたらす。
サッカー欧州CLを早朝に観戦するアジアのファンのためにハイネケンが仕掛けた意外過ぎるキャンペーンの中身
時差のためUEFAチャンピオンズリーグを早朝に視聴せざるを得ない韓国のサッカーファンの...
楽天グループが「楽天市場」出店店舗向けに「楽天AI大学」を公開
2024年3月より提供している店舗運営支援ツール「RMS AIアシスタント β版」に加え、AIツ...
中国発AIソーシャル工作のゾッとする実態をMicrosoftがレポート
Microsoftが中国を拠点とする影響力工作の増加についてのレポートを発表した。これは米国...