生成AIの企業利用でいま注目されているのが「ローカルで生成AIを実行できる環境」だ。米OpenAIの「ChatGPT」や米Googleの「Gemini」のような生成AIサービスを利用する場合、テキストや画像といった入力情報を社外へ送信することになる。これに対し、企業によってはセキュリティポリシーなどの観点で対応が難しいため、特に機微な情報を扱うシーンでは自社内で実行環境を完結したいというニーズが生まれるわけだ。
そうしたローカルの実行環境は、大きくサーバとデバイス(PCやスマホ)の2種類に分けられる。サーバは前述のセキュリティ観点での意義が大きい。PCはそれに加え、従業員の手元の実行環境となるために、従来のPCに比べて業務効率化への期待もかけられている。
特に2024年は米Intelと米AMDがAI処理用の演算装置「NPU」(ニューラル・プロセッシング・ユニット)を搭載したプロセッサを打ち出し、そのプロセッサを載せたマシンをMicrosoftとともに「AI PC」として打ち出している他、MicrosoftはAI PCの中でも一定以上の計算性能を持ち合わせたものを「Copilot+ PC」ブランドで展開を始めている。
ハードウェアベンダーとしてはNPUで攻勢をかけている状況だが、デバイス内で動く「オンデバイスAI」を実行するに当たってはソフトウェア側の整備も不可欠だ。もちろんハードウェア側もNPUだけが選択肢なわけではない。この記事では、これらの状況を大まかに整理したい。
生成AIブームの中、かつて“謎の半導体メーカー”とも称された米NVIDIAの株価がうなぎ登りに上がったのは周知の事実だろう。株価高騰の主な理由は、生成AIに求められる巨大な計算資源として、同社のGPU(グラフィカル・プロセッシング・ユニット)が事実上不可欠だからだ。
生成AIに限らず、ニューラルネットワークをベースとするAI処理には足し算と掛け算が並列で多数発生する。GPUは名前が示す通り、本来は映像処理のための計算装置だったが、映像処理も並列計算であるためAIを含む並列計算に転用されるようになった。スーパーコンピュータの性能ランキングである「Top500」でもランクインしている多くのマシンがGPUを搭載しているほど、GPUは計算資源として重要視されている。
Copyright © ITmedia, Inc. All Rights Reserved.