検索
コラム

「“爆食”AIが電気を食い尽くす」説に異論も AWSらによるデータセンター建設ラッシュ続くCIO Dive

AWS、Microsoft、Google Cloudら大手テック企業によるデータセンター建設ラッシュが続いている。電力不足が懸念されている。企業のクラウド利用が拡大する中、AIブームは電力消費を増大させるのか、それとも……。

Share
Tweet
LINE
Hatena
CIO Dive

 企業のクラウド需要が急増し、電力を大量に消費する生成AIのワークロードがリソースを食い尽くそうとしている。こうした中、大手テック企業によるデータセンターの建設ラッシュが起きている。

「“爆食”AIが電気を食い尽くす」は本当か?

 この建設ラッシュの背景には、以前から成長を続けているクラウド市場がある。Gartnerによれば、実はAIの利用拡大による「後押し」はごくわずかで、企業が2023年にクラウドインフラやクラウドサービスにかける費用は全世界で5000億ドルに上る見込みだ(注1)(注2)。

 2024年におけるクラウド投資は7000億ドル近くに上ると予測されている。生成AI関連のインフラ投資によってIT投資の総額は5兆ドル以上にまで押し上げるだろうというのがGartnerの見立てだ(注3)。

 パブリッククラウドのコンピューティングモデルは、企業自身がデータセンターを運用するよりも効率的だ。しかし、クラウドが拡張すれば処理量は増大し、デジタル商品の資源消費が増大する。

 企業のIT環境への影響はまだ明らかにはなっていないが、既にクラウドにかかるコストやGPU不足に悩んでいるCIO(最高情報責任者)は、生成AIプロジェクトを推進するにつれて持続可能性の脅威に直面するかもしれない(注4)(注5)。

 クラウドブームは長く続いているため、インフラの調達は差し迫った問題ではないだろう。

 ただし、Synergy Research Groupによると、世界のクラウドおよびインターネットプロバイダー19社を分析した結果、クラウド大手が設立したデータセンターの数は過去6年間で2倍以上に増加し、2023年には1000カ所近くに達したという(注6)(注7)。クラウドにおけるコンピュート容量はさらに速いペースで増加し、わずか4年で倍増したとSynergy Research Groupは2024年4月17日に発表した。

 同社によると、AIへの関心の高まりに後押しされて、コンピュート容量は今後4年間で再び倍増し、年間で100カ所以上のデータセンターが新たに稼働する。

 Synergy Research Groupのジョン・ディンズデール氏(チーフアナリスト兼リサーチディレクター)は2024年4月17日(現地時間)、「データセンターの規模は二極分化している」と述べた。

 「中核となるデータセンターがますます大きくなる一方で、顧客に近い距離に配置できるように比較的小規模なデータセンターも増えている。全体的に、全ての主要な成長トレンドは急激に上昇している」(ディンズデール氏)

クラウド大手が1000億ドルを投資する理由

 「ChatGPT」「Gemini」「Claude」、その他多くの生成AI製品の背後にあるLLM(大規模言語モデル)のトレーニングは、GPUを搭載した大型サーバや大容量サーバを必要とする大規模な計算作業だ。

 これに対し、企業は生成AIを比較的小さな規模で使っている。

 Gartnerのアラン・プリーストリー氏(バイスプレジデントアナリスト)は「ほとんどのIT企業は、兆単位のChatGPTモデルを導入するつもりはない。マーケティング部門が使いたいのであればクラウドで使うだろうし、インフラコストと電気料金の大部分は他者が負担するだろう」と話す。

 それにも関わらず、クラウド大手が時間をかけてAIの利用を拡大するのは、先行投資に見合うだけの潜在的な価値があるからだ。

 AWS(Amazon Web Services)は米国ミシシッピ州の複数の複合施設に100億ドルを投じると表明している。「これは州史上最大の単独設備投資だ」とミシシッピ州開発公社が2024年1月に発表した(注8)。同社はさらに今後6年間で78億ドルを投じてオハイオ州のデータセンター事業を拡大する計画がある。2040年までにバージニア州全土に350億ドル規模を投じるとしている(注9)(注10)。

 MicrosoftとGoogle Cloudもインフラ支出を拡大しており、Oracleもクラウド容量の増強に100億ドルを投じることを最近発表した(注11)(注12)。

 LLMの実行には膨大なインフラが必要だ。MicrosoftはOpenAIのモデル構築業務をサポートするスーパーコンピューティング施設の建設に1000億ドルを投じると言明した(注13)。

 「インフラに1000億ドルを費やすということは、そのインフラによる開発から数千億ドルの収益が期待できるということだ」(プリーストリー氏)

AIブームはエネルギー消費を拡大させるのか?

 生成AIが普及するにつれて、当初は楽観論者でさえ半導体不足やインフラを懸念しており、規制順守や安全性の問題、そして生成AIの存亡の危機も表面化した。

 現在は、データセンターを稼働させるための電力の調達が懸念されている。

 コンサルティング会社Ernst & Youngのケン・エングルンド氏(技術・メディア・通信部門米国リーダー)は、「AIを巡る競争全体において、予測される膨大なコンピュート量を考慮すると、半導体の主要材料であるシリコンの制約は最終的にはエネルギーの制約に取って替わるだろう」と述べた。

 Ernst & Youngのアナリストは、データセンターの持続可能性をテック企業にとってのチャンスと見ており、2023年12月の報告書ではLLMによるエネルギー需要を強調している(注14)。

 「AIコンピュートは、小国であれば一国の消費電力に相当するエネルギーを消費する」(エングルンド氏)

 Google Cloudの委託を受けたBoston Consulting Groupが発表した2023年11月の報告書によると、予測モデリングと自動化を組み合わせることで効率性を高め、エネルギー使用を最適化し、環境への影響を抑制することは既に可能だという(注15)。

 AIの能力が成熟するにつれて、今後数年間で世界の温室効果ガス排出量(GHG)を最大で10%削減する可能性を秘めている。しかし、「より新しく、より複雑なAIモデル」による水とエネルギーの消費は、潜在的な利益を損なう可能性があると報告書には記載されている(注16)。

 「脅威の大きさを定量化するのは難しいが、この問題は2023年12月に開催された国連気候変動枠組条約第28回締約国会議(COP28)で表面化した」(エングルンド氏)

 エングルンド氏は「AIによるエネルギー需要は、現在はコンピューティングに使用される総消費量の約2%を占めているが、今後10年間で20%になるかもしれない。COP28終了後、こうした可能性について興味深い議論が行われた。コンピューティングにそのレベルのエネルギー需要があれば、それはあらゆるものに波及するだろう」

最新CPUがもたらす省エネ効果

 クラウドコストを抑制するための取り組みは、環境への影響を軽減するのに役立つ可能性がある。最適化には、不必要なコンピュート容量の削減も含まれる。

 それにもかかわらず、クラウドコストは企業の持続可能性に影を落としている。

 クラウドソフトウェア会社のFlexeraによると、2023年は米国景気が悪化したため、企業は持続可能性よりもコストの最適化を優先した。 調査対象となった 753 人の IT 専門家および経営幹部のほぼ半数は「環境への取り組みを実施している」と回答したが、59% は「二酸化炭素(CO2)排出量よりもコストの管理に焦点を当てている」と回答している。

 Flexera のブライアン アドラー氏(クラウド市場戦略担当シニアディレクター)は、「SDGs(持続可能な開発目標)を達成しない企業に対して罰則が設けられるまでは、(長期利用を前提とした割引サービスである)リザーブドインスタンスで 12 セントを節約する方が企業の関心は高い」と述べる。

 「現在、持続可能性を AI 戦略に組み込むことはハイパースケーラーが担う役割であり、彼らは持続可能性を追求する動機がある」とSRGのディンズデール氏(クラウド市場戦略担当シニア ディレクター)は「CIO Dive」に宛てた電子メールで語った。

 「電力にはコストがかかるため、ハイパースケーラーは可能な限り省エネルギーを達成したいという強い意欲を持っている」とディンズデール氏は述べる。 「ネットワークや、データセンターのレイアウトを再設計し、さまざまなタイプのワークロードを分離して管理し、潜在的な問題を創造的に解決するという多大なプレッシャーを製品開発チームに課すことになる。 彼らは空が落ちるのではないかと心配する『チキン・リトル』に出てくるヒヨコのような悲観論者ではない」

 SRGでは、一部の地域では電力の調達不足によってデータセンターの開発が制限されている。「それがクラウド本来の強みの一つになっている。地理的に分散したハイパースケーラーのデータセンターがグローバルネットワークとして優れている点の一つは、ワークロードを移動したり電力に制約がないさまざまな地域で新しいデータセンターを建設できる柔軟性が得られることだ」(ディンズデール氏)

 半導体メーカーとクラウドプロバイダーは解決策に取り組んでいる。彼らはコンピュート容量の拡張だけでなく、エネルギーの節約を志向している。

 Nvidiaのジェンスン・フアンCEOは「われわれの目標は、継続的にコストとエネルギーを削減することだ」と、2024年3月のGTC人工知能カンファレンスの基調講演で述べた。 同社はイベントでGH200プロセッサを発表し、2024年年末までに市場に投入する予定であると明かした。

 AWSやMicrosoft、Googleはいずれも、AIに最適化された独自の解決策を展開している。エネルギー効率を優先して設計された新しいCPUを開発している。

 AWSのアダム・セリプスキーCEOは、2023年11月に開催された「AWS re:Invent 2023」で、同社の「Graviton 3E」の性能の高さに胸を張った。「Graviton 3Eは、Graviton 2と比較して最大で25% 優れたパフォーマンスを実現する。同レベルのパフォーマンスでは消費エネルギーが60%抑制される」

(注1)CIO ‘change fatigue’ dampens enterprise IT spend(CIO Dive)
(注2)Enterprise cloud spend jumped in Q4, nudged upward by AI(CIO Dive)
(注3)Cloud spend climbs as hyperscaler infrastructure becomes ‘indispensable’(CIO Dive)
(注4)Enterprise cloud costs spiral despite FinOps adoption, report finds(CIO Dive)
(注5)Should CIOs worry about the GPU shortage?(CIO Dive)
(注6)Hyperscale Data Centers Hit the Thousand Mark; Total Capacity is Doubling Every Four Years(Synergy Research Group)
(注7)Hyperscale Data Centers Hit the Thousand Mark; Total Capacity is Doubling Every Four Years(Synergy Research Group)
(注8)Amazon Web Services plans to invest $10 billion, creating 1,000 jobs to establish data center complexes in Mississippi(MISSISSIPPI DEVELOPMENT AUTHORITY)
(注9)AWS continues to invest in Ohio(Amazon)
(注10)AWS in your community: Here's what's happening in northern Virginia(Amazon)
(注11)Microsoft, Google build out cloud capacity as AI powers consumption(CIO Dive)
(注12)Oracle surpasses major cloud threshold, pours $10B into data center expansions(CIO Dive)
(注13)Microsoft and OpenAI Plot $100 Billion Stargate AI Supercomputer(The Information)
(注14)Tech industry outlook brighter than 12 months ago, with GenAI emerging as top opportunity for 2024(Ernst & Young Global Limited)
(注15)Accelerating climate action with AI(Google)
(注16)Accelerating Climate Action with AI(BOSTON CONSULTING GROUP)

(初出)AI is a power-hungry beast: Who’s responsible for taming its energy appetite?

© Industry Dive. All rights reserved.

ページトップに戻る