検索
ニュース

Lenovoは「AI」にどう取り組む? デバイス部門のダリル・クロマーCTOに聞く独占インタビュー(2/3 ページ)

スマートフォンで先行していたNPU(ニューラルプロセッサ)搭載の動きが、PCにも広がりつつある。いわゆる「AI PC」が本格普及しようとする中、LenovoはPCやスマホのAIについてどのように考えているのだろうか。デバイス部門の責任者に話を聞いた。

Share
Tweet
LINE
Hatena

オンデバイスAIを快適に使う鍵は?

―― AMDがノートPC向けにNPU搭載のAPU(Ryzen 7040/8040シリーズ)をリリースして、IntelもノートPC向けにNPU搭載のCPU(Core Ultraプロセッサ)を投入しました。オンデバイスAIの処理を高速にこなせるということで、今後、特に生成AIで面白いことができそうな予感もするのですが、このことが「Think」「Yoga」「Idea」といったLenovoのPC製品の“形”や“位置付け”に変化をもたらすことはあるのでしょうか。

クロマー氏 とても良い質問だと思います。他社の動向を話せませんが、全般的なトレンドから話しをすることはできます。

 生成AIをオンデバイスで処理するということになると、(ハードウェアに)さまざまな要件が課されます。例えばLLM(大規模言語モデル)を使おうとなると、何十億、何百億というトークンを処理する必要があります。データを並列で読み出す必要があるので、それに対応するだけの大容量かつ高速なメモリが必要になります。デバイスの設計で重視すべきことを変更しなくてはなりません。

 ただ、私たちとしては、クラウド、エッジ、そしてオンデバイスで分散してAI処理は行う「ハイブリッドモデル」になるのではないかと思っています。「このタスクはPC(オンデバイス)寄りで」「あのタスクはクラウド寄りで」といったように、処理すべきタスクの種類や性質に応じて、いろいろな形で処理を分散するイメージです。

 もう少し具体的に言うと、大規模なパブリックモデルを使うAIはクラウド処理、プライベートファウンデーションモデルを使うAIは、学習をクラウドで行い、それをもとにオンデバイス、あるいは(そのまま)クラウドで処理という感じになるのではないでしょうか。

 今後もCPU、GPU、そしてNPUは新たな機能を搭載していくと思います。このことで、処理能力が向上し、メモリの帯域幅も拡大していきます。将来的には、(学習段階から)単独でパーソナルファウンデーションモデルを処理できるPCやスマホも出てくるのではないでしょうか。

深層学習のイメージ
Lenovoはクラウドとオンデバイスを併用する「ハイブリッドAI」が当面の主流になるものの、将来的なハードウェア性能の向上によってオンデバイスAIの比重が大きくなっていくと見ているという

―― 今後のPCやスマホではメモリへのアクセススピード、言い換えると帯域幅が重要になるということでしょうか。

クロマー氏 これも良い質問です。これからのPCやスマホに求められるスペックを考える上で、「どれだけの演算処理が必要か?」「どれだけのデータを扱うのか?」を考えなければいけません。

 そうなると、どうしてもメモリやストレージの容量は多く求められます。例えば、80億パラメーターの言語モデルは、容量に換算すると8GBほどです。これをメモリに高速展開するとなると、メモリやストレージには(容量だけでなく)一定の帯域幅も必要です。

 処理すべきワークロード(作業内容)によって、必要な「CPU/GPU/NPUの処理能力」と「メモリやストレージの帯域幅や容量」は決まってきます。処理すべきモデルが大きければ大きいほど要件は高くなるわけですが、その分レスポンスも良くなります。

 現在、米国や日本において、パートナー企業の協力を得ながら1つ1つのワークロードに対して“適正な”コンフィギュレーション(仕様)を探る研究に注力しています。この研究が進めば、お客さまに“適正な”スペックのデバイスをお勧めしやすくなると考えています。

 ご存じの通り、ThinkPadシリーズであれYogaシリーズであれ、私たちは世界有数のパフォーマンスと電力管理、軽量性や薄さを備えたPCを取りそろえています。これからの時代のPCも、業界をリードするようなものになると自負しています。

 「AI PC」の時代になっても、Lenovoのエンジニアリング精神はしっかりと生き続けると確信しています。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る