メディア
ITmedia AI+ >

「我が社もAI PC」の前に 知っておくべきオンデバイスAI実行環境の基礎知識(1/3 ページ)

» 2024年08月23日 15時00分 公開
[井上輝一ITmedia]

 生成AIの企業利用でいま注目されているのが「ローカルで生成AIを実行できる環境」だ。米OpenAIの「ChatGPT」や米Googleの「Gemini」のような生成AIサービスを利用する場合、テキストや画像といった入力情報を社外へ送信することになる。これに対し、企業によってはセキュリティポリシーなどの観点で対応が難しいため、特に機微な情報を扱うシーンでは自社内で実行環境を完結したいというニーズが生まれるわけだ。

 そうしたローカルの実行環境は、大きくサーバとデバイス(PCやスマホ)の2種類に分けられる。サーバは前述のセキュリティ観点での意義が大きい。PCはそれに加え、従業員の手元の実行環境となるために、従来のPCに比べて業務効率化への期待もかけられている。

 特に2024年は米Intelと米AMDがAI処理用の演算装置「NPU」(ニューラル・プロセッシング・ユニット)を搭載したプロセッサを打ち出し、そのプロセッサを載せたマシンをMicrosoftとともに「AI PC」として打ち出している他、MicrosoftはAI PCの中でも一定以上の計算性能を持ち合わせたものを「Copilot+ PC」ブランドで展開を始めている。

AI処理用の演算装置「NPU」(ニューラル・プロセッシング・ユニット)のイメージ(提供元:米Microsoft)

 ハードウェアベンダーとしてはNPUで攻勢をかけている状況だが、デバイス内で動く「オンデバイスAI」を実行するに当たってはソフトウェア側の整備も不可欠だ。もちろんハードウェア側もNPUだけが選択肢なわけではない。この記事では、これらの状況を大まかに整理したい。

NPUの前に「GPU」のおさらい AI処理のデファクトスタンダード

 生成AIブームの中、かつて“謎の半導体メーカー”とも称された米NVIDIAの株価がうなぎ登りに上がったのは周知の事実だろう。株価高騰の主な理由は、生成AIに求められる巨大な計算資源として、同社のGPU(グラフィカル・プロセッシング・ユニット)が事実上不可欠だからだ。

 生成AIに限らず、ニューラルネットワークをベースとするAI処理には足し算と掛け算が並列で多数発生する。GPUは名前が示す通り、本来は映像処理のための計算装置だったが、映像処理も並列計算であるためAIを含む並列計算に転用されるようになった。スーパーコンピュータの性能ランキングである「Top500」でもランクインしている多くのマシンがGPUを搭載しているほど、GPUは計算資源として重要視されている。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.