ジェネレーティブAIをサポートするため、AWSやMicrosoft、Googleはインフラに投資に加え、コスト管理に取り組んでいる。AIがクラウドビジネスをいかに変えるのか。
この記事は会員限定です。会員登録すると全てご覧いただけます。
ジェネレーティブAI(人工知能)の導入競争は激しさを増している。その中でも、Amazon Web Services(以下、AWS)、Microsoft、Googleといったハイパースケーラーが大規模言語モデルとそれを実現するツールを用いてどのように企業のインフラを“再構築”するのかに注目が集まっている。
ジェネレーティブAIの導入を大規模に実行するには、既にクラウドでサポートされているインフラやデータ基盤、ソフトウェアサービスなどに大規模なデータストレージとコンピューティングパワー(計算能力)を装備する必要がある。クラウドモデルには余剰容量が存在するが、追加された容量に関しては現在のインフラへの負荷となる。ハイパースケーラーはその負荷を軽減するための対策に取り組んでいる。
Googleの親会社であるAlphabetでCEO(最高経営責任者)を務めるサンダー・ピチャイ氏は、2023年4月に行われた2023年第1四半期決算説明会で「『Google Cloud』のデータセンターを再構築し、AIコンピュートに対応するためにワークロードを再分配している」と述べた(注1)。
MicrosoftでCEOを務めるサティア・ナデラ氏も2023年3月の決算説明会で「目標を達成するために『Microsoft Azure』(Azure)のインフラの最適化に注力している」と述べている(注2)。
各社からリソースの問題は最重要視されている。実際にナデラ氏は「AIを推進するためには高速化されたコンピュートが不可欠だ。われわれが今最も注力しているのは、そのリソースを最大限効率的に使用できるように徹底することだ」と話した。
AWSは2023年5月の第1週目に次世代の「Inferentia2」と「Trainium for SageMaker」を発表した(注3)。Amazonによると、この新しいチップはML(機械学習)やモデル構築の負荷に対応し、より強力で効率的かつコストパフォーマンスの高いクラウドコンピュートハードウェアの必要性に対処するものだ。
同社でCEOを務めるアンディー・ジャシー氏は2023年4月の2023年第1四半期決算説明会で(注4)、AIチップ技術の進歩について「われわれが満たさなければならない最低基準は『大規模言語モデルの全てがコンピュート上で実行される』ということだ。そしてその鍵を握るのはチップだ。一方、この種の作業負荷に最適化されたチップ、特にGPUは高価で希少だ。十分な容量を確保するのは難しい」と述べている。
Gartnerでバイスプレジデントアナリストを務めるシド・ナグ氏も「データの処理は迅速でなければならず、高度でスケーラブルなコンピュート能力が必要だ。誰もがジェネレーティブAIツールを使用する新たなアプリケーションを作り始めたら、クラウドインフラにどれほどの負荷がかかるのかは想像にたやすい」と指摘する。
ハイパースケーラーはMLなどに対応するために容量を増やすことに加えて、その技術を手頃な価格にする必要がある。しかし、既にコスト面で懸念が生じている。OpenAIでCEOを務めるサム・アルトマン氏は2022年12月のツイートで「『ChatGPT』のコンピュートコストは『目が飛び出るほど高い』」と述べた(注5)。
最近のNational Bureau of Economic Research(全米経済研究所)のワーキングペーパーによると(注6)、「GPT-3」のトレーニングには1回当たり500万ドルの費用がかかる。
CNBCの報道によると(注7)、Microsoftの検索エンジン「Microsoft Bing」に生成AI機能を追加する費用は40億ドルに達する可能性がある。現在、Microsoft Bingは検索に関する世界市場の3%未満にとどまっている(注8)。
Info-Tech Research Groupのインフラストラクチャ研究ディレクターであるスコット・ヤング氏は「従来のCPUからGPUやGoogleのAIを加速する『TPU』(機械学習に特化した特定用途向け集積回路)、NVIDIA製品を搭載した特殊な形態へのシフトは(注9)、新たなコスト構造を生み出す」と述べる。
「このような組み合わせが求められる状況下では、コンピュートの容量を増やす、もしくはハイパースケーラーの需要に合わせて既存の使用容量とのバランスを適切に取る必要があり、今後もこの傾向は続くだろう」(ヤング氏)
一方、この課題はハイパースケーラーにとって“ビジネスチャンス”でもある。
ヤング氏によれば、ほとんどの企業はジェネレーティブAI機能をサポートするために必要なプラットフォームのサイズを実現できない。
ナグ氏も「多くの企業が専用のプラットフォームを提供するためにクラウドに目を向けている。ハイパースケーラーにとっては市場シェアを拡大する新たな機会だ」と指摘する。
AIの進化を支えるチップやサーバに対するインフラ投資は今に始まったことではない。チップのトランジスタ数が2年ごとに倍増し、その結果計算能力が向上すると仮定した「ムーアの法則」にいかに対応するかは、依然としてハイパースケーラーの課題だ。
「AIブームの前は、Googleや他の企業はデータセンターのコストを下げ、効率的で持続可能な環境を目指していた。一方、現実はほとんどの人が多くの時間とコストをトレーニングに費やしている。これらのモデルが本番環境に移行しアプリに組み込まれれば、全ての支出が費やされることになるだろう」(ナグ氏)
(注1)Google Cloud braces for AI compute costs, ramps up data center investments(CIO Dive)
(注2)Microsoft stabilizes cloud revenue growth, renews cost optimization pledge(CIO Dive)
(注3)Achieve high performance with lowest cost for generative AI inference using AWS Inferentia2 and AWS Trainium on Amazon SageMaker(Amazon Web Services)
(注4)AWS revenue growth slows as cloud market expands(CIO Dive)
(注5)4 roadblocks to business adoption of generative AI(CIO Dive)
(注6)Generative AI at Work(National Bureau of Economic Research)
(注7)Meet the $10,000 Nvidia chip powering the race for A.I.(CNBC)
(注8)Global search engine traffic market share of Bing from January 2018 to April 2023(Statista)
(注9)NVIDIA and Google Cloud Deliver Powerful New Generative AI Platform, Built on the New L4 GPU and Vertex AI(NVIDIA)
© Industry Dive. All rights reserved.