AI推論の熱問題を「45℃の温水」で解く LenovoのハイブリッドAI戦略を聞いた

AI活用が「作る」から「使う」フェーズに移行する中、Lenovoは新サーバ製品群を発表。ハード提供を最終工程に置く「サービス主導」の戦略と、日本の電力コスト課題に対し「45℃の温水冷却」で効率化を図る液体冷却技術の現在地を解説する。

» 2026年03月19日 07時00分 公開
[末岡洋子ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 AIの活用が「モデルを作る」フェーズから「モデルを使う」フェーズへと移行し、推論(インファレンス)インフラへの関心が高まっている。膨大な演算を支えるハードウェアの確保はもちろん、実運用において避けて通れない「電力コスト」や「熱対策」、そしてビジネス成果への直結が企業の喫緊の課題となっている。

スコット・ティーズ氏

 これらを背景に、Lenovoは2026年1月、米ラスベガスで開催されたCES 2026に合わせて「Lenovo Tech World @ CES 2026」を開催し、AI推論に最適化した新サーバと関連サービスを発表した。単なるスペック競争から脱却し、顧客のAIジャーニーに深く伴走しようとする同社の意図はどこにあるのか。同社インフラストラクチャ・ソリューション・グループ(ISG)担当副社長のスコット・ティーズ(Scott Tease)氏(以下、ティーズ氏)に製品戦略の全容を聞いた。

AIはトレーニングから推論へ 推論特化の新サーバとは

 Lenovoが発表したのは「ThinkSystem SR675i」「ThinkSystem SR650i」「ThinkEdge SE455i」の3製品だ。いずれも末尾に「i」が付くが、これは推論(インファレンス、inference)の「i」で、推論用途に最適化されていることを示す。

 SR675iは大規模言語モデル(LLM)の推論実行や製造や医療、金融向けのハイエンド用途、SR650iは既存データセンターへのスケーラブルな導入、SE455iはノートPCと同程度のサイズで小売や通信、産業環境向けのエッジ展開を想定する。

 それまでAIのトレーニング用途で大規模で高価なハードウェアが利用されてきたのに対し、ティーズ氏はこれら「iライン」のサーバが従来の標準的なラックサーバのフォームファクターを踏襲していると強調する。「従来の同社サーバラインと大きく変わらず、既存のデータセンター環境に導入しやすい設計だ」という。

 iラインで推論市場を狙う背景には、市場の変化がある。「AIのフェーズが変わってきている」とティーズ氏。「AIのトレーニングには引き続き大規模なGPU環境が必要だが、企業がオープンソースのファウンデーションモデルに自社データを組み込んで独自モデルを作り、それを実行する段階ではまったく異なる要件が求められる」と説明する。推論ではレイテンシの低減や高スループット、ネットワーク設計の最適化が必要となり、それをこれまでの標準的なフォームファクターで実現したと主張する。

 「IT業界はずっと大規模クラウドや『GPU as a Service』に注目してきた。だが本当の価値は、より多くの企業がAIを使えるようになったときに生まれる。それが今回私たちが示したかったことだ」

 市場調査会社Futurumによれば、グローバルのAIインファレンスインフラ市場は2024年の50億ドルから2030年には488億ドルへ拡大し、年平均成長率は46.3%に達すると予測される。

ハイブリッドAI戦略 クラウドとオンプレミスの位置付け

 Lenovoはクラウドとオンプレミスを対立させるのではなく、AIのバリューチェーンをその性質に応じてクラウドやデータセンター、エッジ、デバイスに分散させる「ハイブリッドAI」を戦略の軸に置く。

 具体的には、データパイプラインやセキュリティ、ネットワーク設計、データ利用のガバナンス体制が整っているかどうかの確認を起点とし、ワークロードと設置場所の要件に基づいてハードウェアを後から決定するという順序を重視するとしている。

 データの配置に関してティーズ氏は、「データをAIに持っていくか、AIをデータのある場所に持っていくかの二択になる」とし、データ主権やネットワーク転送コストの観点から、後者を選ぶ企業が増えるとの見方を示した。日本を含む各国でのソブリンAI需要の高まりについても言及し、地域にAIの要件や規制が異なるため、グローバル展開においても高度にローカライズされた対応が必要になるとした。

 Hewlett Packard Enterprise(HPE)、Dell Technologiesも同様の概念を掲げているが、自社の差別化についてティーズ氏は「ハードウェアではなく、AI導入の準備状況の評価から始めるサービス主導のアプローチにある」と説明する。Lenovoはハードウェアを提供するが、「顧客との議論では、データのパイプラインの整備やデータ利用の倫理的なルールの整備、セキュリティ、ネットワークなどの土台の話を最初にしている。ハードウェアは最後の話題だ」とティーズ氏は話す。

 Lenovoは、インフラ、エッジ、データセンター向けの機器を扱うティーズ氏のISGに加え、PCの「ThinkPad」やモバイル「Motorola」ブランドを持つインテリジェント・デバイス・グループ(IDG)、サービスのソリューションズ&サービス・グループ(SSG)などを擁しており、「AIでは、3組織が一体となって顧客に向き合うことが重要。ハードウェアの商談、サービスの商談ではなく、AIジャーニーとして支援している」と話す。

 Lenovoはクラウドと同様使った分だけ支払う「OpEx型支払いモデル」で機器の調達、利用ができる「TruScale」を展開しており、今回推論向けに発表した「Hybrid AI Factory Services」では、導入アドバイザリーや展開支援、継続的なマネージドサービスとTruScaleによるインフラ調達を組み合わせることが可能だ。ただしティーズ氏は「TruScaleはAIジャーニー全体のほんの一部にすぎない」と位置付ける。その本質はモデルの継続的な維持、最適化の伴走にあるという。

 サービス提供の担い手については、データサイエンティストやデータエキスパートを既に数百人規模で社内に抱えているとティーズ氏は述べる。組織は小売、製造、教育などの業界別に編成されており、各業界特有の課題に精通しているのが強みだ。

 例えば小売担当であれば、「セルフチェックアウトの運用」といった現場固有のニーズをあらかじめ理解している。単にAI技術を売るのではなく、現場の業務フローを熟知したプロが、そこに「どうAIを組み込めば実務が改善するか」を具体的に提案できる体制を整えているという。

 ティーズ氏によれば、AIの導入支援は一般的な保守サービスとは異なり、モデルの継続的な最適化や更新が必要になることから、中長期の関与が前提になるという。データサイエンティストやデータエンジニアを社内で抱えることを望まない企業に対し、それをアウトソース先として担うことを想定している。「PoCを本番実装に移行させるには、目標とROIの定義から始めなければならない。それをせずに進めてきた2018〜2019年頃の反省がある」と同氏は振り返る。

 なお今回の発表会場となったラスベガスの球体施設「Sphere」もLenovo製品の活用事例の一つだ。Sphereを運営するSphere Studiosは「AMD EPYCプロセッサ」と「NVIDIAアクセラレーテッドコンピューティング」を搭載した「ThinkSystem SR655 V3」を数百台使用してコンテンツを制作しているという。

日本市場への対応 電力コストとNeptune液体冷却

 AIインフラは既存のHPC(ハイパフォーマンスコンピューティング)とどのような関係にあるのか。ティーズ氏は「外観から区別がつかないほど(2つのカテゴリーは)似てきている」と述べる。高速ネットワークやGPU、CPU、大容量メモリという構成は共通しており、管理スキルも重なる部分が多い。LenovoはHPCで培った大規模運用の経験を、AIインフラの顧客支援に活用できると見ている。

 その先にある量子コンピューティングについては、「実際に導入可能になるまで5年以上かかる」との見方を示した。

 現時点では多くの顧客がテスト、教育目的での導入にとどまる。量子環境が実用化された際もデータ前処理には従来のx86コンピューティングが必要になるため、AIやHPCに使うハードウェアと共用できるとしている。

 日本市場については、データ主権への意識など、ニーズは他地域と大きく異なるわけではないとしつつ、電力コストと供給の制約を固有の課題として挙げた。「大規模なGPUシステムは電力集約的だが、日本の電力コストは高く供給も限られている」とティーズ氏。Lenovoのグローバルビジネスは北米・欧州・アジア太平洋(日本・中国含む)がほぼ均等に分散しているが、AIについては地域ごとの規制や文化、ニーズの違いが大きく、日本向けには独自の最適化が必要との認識だ。

 この文脈でLenovoが強調するのが液体冷却技術「Neptune」だ。空冷データセンターでは冷却のためだけにIT消費電力の約40%の追加電力が必要になる(1MWのITに対して約400kW)。Neptuneによる液冷化ではエアハンドラーやチラー(水を冷やすための大型冷却装置)、サーバのファンを全て不要にすることで、データセンター全体の消費電力を最大40%削減できるとする。摂氏45度の温水をシステムに引き込む設計で、チラーが不要になる点が特徴だ。

 システムを通過した水は50〜55度に達し、この排熱を数km離れた場所に送って再利用する事例も出ている。ドイツの企業での排熱活用、大学プールの加熱、北欧での地域温水補充などが実績として挙げられた。ティーズ氏は2012年にドイツで約9700台のサーバを液冷で構築したことを同技術の起点として挙げ、「13年の積み重ねがある」と説明する。同システムはその後、7年間稼働したという。

 配管工事なしに液冷のメリットを享受したいユーザー向けに、「Neptune Air」も用意している。熱交換器と液体ループをサーバ内部に完全収納した自己完結型の設計で、液体はサーバ外に出ない。CPUやGPUを液体で冷却し、その熱をサーバ内の小型ラジエーターに送って低速ファンで排熱する仕組みだ。通常の液冷より効率は下がるものの、空冷よりは効率的で静音性も高く、既存環境に手を加えずに液冷のメリットを得られる選択肢として位置付けている。

 Neptuneは現在第6世代で、第7世代は2027年初頭の登場を予定している。次世代Intel、AMD、NVIDIAプラットフォームへの対応が計画されている。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR