ニュース
OpenAIがGoogleのAIチップ採用 非NVIDIA製を初めて使用
米OpenAIがChatGPTなどの製品向けに、Google製AIチップの利用を始めた。関係者がロイターに明かした。
米OpenAIがChatGPTなどの製品向けに、米Google製AIチップの利用を始めた。6月27日(現地時間)、関係者がロイターに明かした。
OpenAIはこれまで米NVIDIA製GPUの最大の購入者の一つで、AIモデルの訓練や推論処理に使ってきた。今回の動きは、OpenAIがNVIDIA以外のチップを本格的に使用する初の例となり、米Microsoftのデータセンターへの依存からの脱却を示している。
米The Informationによれば、OpenAIは推論処理にかかるコストの削減を目的に、Google Cloud経由でTPUをレンタルしているという。
Googleにとっては、自社製TPUの外部提供を拡大する中での取引となる。これまで同社のTPUは社内限定で利用されていた。しかし現在では米Appleのような大手テック企業や、OpenAIの元幹部らが設立した米Anthropic、米Safe Superintelligenceといったスタートアップの顧客も獲得している。
ただしThe InformationがGoogle Cloud社員に取材したところによれば、GoogleはAI競争においてOpenAIと競合でもあるため、最も高性能なTPUは提供していないという。
Googleはコメントを控え、OpenAIもロイターからの問い合わせに対してすぐに応じなかった。

Copyright © Thomson Reuters
関連記事
Google、ChatGPT競合チャットbot開発中の新興企業Anthropicを支援
GoogleはOpenAIの「ChatGPT」と競合するチャットbot「Claude」を開発する新興企業Anthropicを支援すると発表した。AnthropicはGoogle Cloudを優先クラウドプロバイダーとし、GoogleはAnthropicのAIシステム開発のためにTPUおよびGPUクラスタを構築する。
Google、初の推論専用TPU「Ironwood」を今年後半Cloud顧客に提供開始へ
Googleは「Cloud Next 2025」で、第7世代となるTPU「Ironwood」を発表した。推論処理に特化した初のTPUだ。最大で4614TFLOPSの計算能力を提供する。
Google、AIチップ「TPU」はGPUより30倍速い
Googleが人工知能「AlphaGo」やGoogle翻訳などのディープラーニング採用サービスで使っているオリジナルプロセッサ「TPU」はCPUやGPUより15〜30倍速いと説明した。
NVIDIA、GPUプラットフォーム「Blackwell」発表 「兆パラメータ規模のAIモデル実現」
NVIDIAは5年ぶりに年次カンファレンスを「GTC」を開催し、AI向けプラットフォーム「Blackwell」を発表した。これにより、“兆パラメータでリアルタイム生成AIを構築および実行できるようになる”としている。
Google、生成AIを支える新TPU「Trillium」の一般提供開始
Googleは、第6世代TPU、「Trillium」のGoogle Cloudでの一般提供開始を発表した。同日発表の「Gemini 2.0」もこのTPUでトレーニングしたとしている。
