ニュース

Intelラウンジに見た「Core Ultraプロセッサ(シリーズ3)」活用術CES 2026(1/3 ページ)

CES 2026の会期中、Intelは「Core Ultraプロセッサ(シリーズ3)」に関する展示を中心とするラウンジを開設した。その展示内容を紹介する。

 Intelは1月6日から9日まで(米国太平洋時間)、「CES 2026」においてショールーム「Intel Lounge」を開設した。このショールームでは、会期前日に発表された「Core Ultraプロセッサ(シリーズ3)」(開発コード名:Panther Lake)が持つ、多彩なポテンシャルを体感できた。

 会期中、Intel Loungeを訪れる機会を得たので、その様子をレポートしたい。


CES 2026に合わせて開設された「Intel Lounge」

Panther Lakeの「推論アクセラレーター」は1つじゃない

 現在、あらゆるIT機器に「推論(AI)アクセラレーター」が搭載されつつあるが、その実装形態は大きく分けると3パターンあることをご存じだろうか。

advertisement

Intel Loungeで展示されていた、Core Ultraプロセッサ(シリーズ3)の実物

 1つ目は、CPUの拡張命令として実装されるスタイルだ。Core Ultraプロセッサ(シリーズ3)だと「AVX-VNNI」「AVX-VNNI-INT8」「AVX-VNNI-INT16」「AVX-NE-CONVERT」「AVX-IFMA」などが該当する。

 このタイプの推論アクセラレーターは、CPU用プログラムとして直にコーディングできる特徴があり、PCI Expressバスを介さずに直接データ群にアクセスできること、既存のCPUコードとの連携がしやすいことから、主に軽量な推論を超低遅延で運用する用途に用いられる。

 2つ目は、GPUに推論アクセラレーターを内蔵するスタイルだ。Core Ultraプロセッサ(シリーズ3)だと、GPUタイルに内包された「XMX(Xe Matrix Extensions)」がそれに当たる。

 GPU内蔵スタイルの推論アクセラレーターは、主にAI支援をグラフィックス処理系に適用する目的で活用されることが多い。具体的には「超解像処理」「フレーム生成」「アンチエイリアス処理」などが用途の定番だ。AI支援で高度な表現を実践する「ニューラルレンダリング」も、昨今では注目を集めつつある。

 また、大容量のグラフィックスメモリが搭載されている場合は、GPU単体でLLM(大規模言語モデル)/SLM(小規模言語モデル)や拡散モデルといった生成AIをローカルで動作させる際にもGPU内蔵型の推論アクセラレーターが活用される。

 3つ目は、CPUやGPUには統合されない、単体の専用推論アクセラレーターだ。これは「NPU(Neural Processing Unit)」と呼ばれることもあり、Core Ultraプロセッサ(シリーズ3)では「Intel AI Engine」がそれに相当する。

 NPUは“専用”ということでAI処理、もっというと推論処理で用いられる演算に特化している「固定機能プロセッサ」に近い位置付けだ。消費電力当たりの性能、いわゆるワッパが圧倒的に優れているという特徴がある。


推論アクセラレーターの実装スタイルは、大きく分けると3種類ある(図版は筆者が「Gemini」を使って作成)

 今回のIntel Loungeでは「GPU内蔵スタイル」「専用アクセラレータースタイル」の推論アクセラレーターの活用事例を体験できるようになっていた。

 なお、1つ目に紹介した「CPUの拡張命令スタイル」の推論アクセラレーターは、ゲームなどではNPC(ノンプレイヤーキャラクター)などの「意志決定AI」や「リアルタイム物理シミュレーションの近似」などで採用事例がある。

 しかし、これらの事例はユーザーに分かりやすく見せてアピールすることが難しいこと、またこの実装スタイルは競合のCPUでもおおむね同様に実践できるため「Intelならでは」をアピールしづらい。もっというと、昨今のRyzenシリーズが「AVX-512」系の命令にフル対応している分、CPU拡張命令スタイルでは「AMDがIntelより先行している」というイメージも強まっている。

 これらの事情もあって、今回のデモでは意図的にCPU拡張命令スタイルの推論アクセラレーターを取り上げなかったのかもしれない。

       | 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.