検索
コラム

AIバブル崩壊はいつ訪れる? 3つの「致命的トリガー」を考える NVIDIA決算の安堵は「嵐の前の静けさ」か(2/3 ページ)

「AIバブルは本当に続くのか」という不安は、むしろ強まっているように見える。もしバブルが弾けるとしたら、どんな形をとるのか。2026年以降に実際に直面し得る「3つの壁」を、AI・データセンターを巡る海外メディアの報道やテック各社の財務状況などに基づいて整理してみたい。

Share
Tweet
LINE
Hatena

第2の壁:AIは人間より高くつく?

 推論コストがROIを押し下げる――学習から推論へAIのスケーリング則が移行することで、性能は一段アップした。しかしここで新たな問題が浮上している。AIを「使う」コストが、予想より高すぎるのだ。

 米セコイア・キャピタルのデビッド・カーン氏は24年7月、AIインフラ投資とAIが生み出す収益の間に6000億ドルもの“ギャップ”があると指摘した。NVIDIAのデータセンター向け売上予測をベースに計算すると、AI企業は年間6000億ドル稼がなければ投資を回収できないという。

 カーン氏の計算はこうだ。NVIDIAのデータセンター向け売上高予測を2倍にして総コストを算出し、さらに2倍にして粗利50%を確保する。その結果、AI企業は年間6000億ドルの収益を上げなければ投資を回収できない。

 しかし現実の収益ははるかに小さい。米OpenAIの25年の売上は年130億ドル以上とされるが、それでも必要額の数%に過ぎない。競合が軒並み100億〜200億ドル規模を稼いだとしても、まだ数千億ドル足りない。

 根底にあるのは、推論コストの高さだ。AIモデルの学習は一度きりの投資だが、推論は使うたびにコストが発生する。顧客サービス用のチャットbotが1時間に数千件の問い合わせを処理すれば、それだけでトークン処理のコストが積み上がる。そして、このコストはずっと続く。

 しかも新世代のAIモデルは、推論がさらに重い。OpenAIの「o1」から始まった高度な推論モデルは、1つの問題を解くために複数回の計算を繰り返す。精度は上がるが、計算コストは跳ね上がる。

 そのコストはAPI料金などに転嫁されるが、ユーザー企業の現実はシンプルだ。「AIを導入したが、APIコストを計算すると人間より高い」「コード生成ツールを部署に展開したら、コストが生産性向上分を食いつぶす」──こうした事例は静かに広がりつつある。

 スタンフォード大学によると、22年から24年でGPT-3.5級モデルの推論コストは280分の1まで下がった。一方で企業側のROIは改善しきれていない。米IBMと米Morning Consultによる24年の調査では「AI投資からポジティブなROIを得ている」と回答した企業は47%にとどまる。半数以上は「まだ経済的メリットがはっきりしない」という状況だ。

 SaaS企業はさらに厳しい。AI機能を加えると計算コストが利益率を圧迫する。Microsoftは「Azure上のAI機能が売上成長率に16ポイント貢献した」と報告しているが、同時にAI関連設備投資が急増し、利益率は悪化している。

 OpenAIの推論コストも重い。米TechCrunchは、24年の推論コストが従来報道を大きく上回る約38億ドルに達したと報じている。利用者は週8億人に達したが、それを支えるインフラコストは膨大だ。

 NVIDIAにとって、推論需要は「第2の成長エンジン」のはずだった。しかしそのエンジンは、まだ本格的には始動していない。そして始動しても、採算が取れないかもしれない。学習フェーズへの巨額投資が一巡した後、期待されていた「爆発的な推論需要」が採算性の壁で立ち上がらなければ、企業はAI機能の利用を縮小し始める。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る