米Googleは12月11日(現地時間)、同社の第6世代TPU(Tensor Processing Unit)、「Trillium」のGoogle Cloudでの一般提供開始を発表した。Trilliumは今年のGoogle I/Oで予告していたTPUだ。
TPUは、Googleが開発した特定用途向け集積回路(ASIC)で、AIモデルのトレーニングや推論に最適化されている。Trilliumは同日発表の「Gemini 2.0」のトレーニングにも使われた。
Trilliumは、先代と比較してトレーニング性能は4倍以上、推論スループットは最大3倍、エネルギー効率は67%、チップ当たりのピークコンピューティング性能は4.7倍、広帯域メモリ(HBM)容量は2倍、チップ間相互接続(ICI)帯域幅は2倍に向上したという。
Trilliumのスケーリング機能はほぼ線形なため、高速インターチップインターコネクトを介して接続した多数のTrilliumホストにワークロードを分散することで、Gemini 2.0などのモデルを高速でトレーニングできるとしている。
また、Trillium搭載のスーパーコンピュータアーキテクチャ「AI Hypercomputer」も発表した。10万個以上のTrilliumチップと13ペタビット/秒の双方向帯域幅を持つJupiterネットワークファブリックを組み合わせることで、単一の分散トレーニングジョブを数十万のアクセラレータにスケーリングすることを可能にする。
Trilliumの利用方法や料金に関する詳細については、Google Cloudの営業チームに問い合わせのこと。
Google、AIモデル「Gemini 2.0」発表 Advancedで利用可能に
Google、AIで切迫する電力需要増に対応する新戦略を発表
Google DeepMind、インタラクティブな3D世界を作るAI「Genie 2」発表
Google I/O 2024基調講演まとめ AI一色、GPT-4oのような機能もCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR