Intelが次世代CPU「Meteor Lake」の概要をチラ見せ 全モデルに「AIエンジン」を搭載

» 2023年05月29日 22時00分 公開
[井上翔ITmedia]

 Intelは5月29日(米国太平洋夏時間)、開発コード名「Meteor Lake(メテオレイク)」のCPUに関する新情報を公開した。このCPUは、次世代の電力管理機能の他、刷新された「Intel Xe Graphics」や新しい「AIエンジン(VPU)」を搭載することでパフォーマンスの向上と省電力化を両立するという。正式な発表は「2023年後半」を予定している。

Meteor Lakeの概要 Meteor Lakeの概要
チップイメージ Meteor Lakeのチップイメージ。ここ数年のIntel CPUのチップイメージから察するに、モバイル向けであると思われる

Meteor Lakeの概要

 Meteor Lakeは現行の第13世代Coreプロセッサ(開発コード名:Raptor Lake)の後継で、順当に行けば「第14世代Coreプロセッサ」となる予定のCPUだ。既報の主な特徴は以下の通りである。

  • 「Intel 4(7nmプロセス)」を適用して生産される初めての製品
  • 複数の「タイル(ダイ)」を組み合わせて1枚のチップを構成(一部のタイルは他社で生産したものを利用)
  • 3Dパッケージング技術「Foveros」を適用

 Meteor Lakeの後継CPU「Arrow Lake」(開発コード名)は、新たな電源半導体「RibbonFET」とIntel独自の裏面電源供給技術「PowerVia」を組み合わせたプロセス「Intel 20A」を、Arrows Lakeの次に来る「Lunar Lake」(同)ではIntel 20Aを改良したプロセス「Intel 18A」を採用する計画となっている。

ロードマップ Intelのクライアント(一般PC)向けCPUのロードマップ。今回フォーカスが当たっているMeteor Lakeは、現行の第13世代Coreプロセッサの後継CPUである

 今回の新情報は、Meteor Lakeに搭載されるAIエンジンに焦点を当てている。

 昨今の「AI(人工知能)」は、いわゆる機械学習(マシンラーニング)や深層学習(ディープラーニング)をベースにしているものが多い(以下、機械学習と深層学習をまとめて「機械学習」とする)。機械学習ベースのAIは、膨大なデータを処理しなければならないため、従来は圧倒的な演算能力を持つサーバ(データセンター)を行う必要があった。

 しかし最近は、より高速な応答の実現やプライバシー保護の観点から機械学習処理をローカルで行うニーズが高まっている。スマートフォンやタブレット向けのSoC(System-on-a-Chip)では、CPUコアやGPUコアとは別に機械学習処理に特化したVPUを搭載する動きがいち早く起こったが、PC向けCPU(SoC)でもAMDが「Ryzen 7040シリーズ」の一部モデルにCPU/GPUコアから独立したVPUを搭載している。

AI処理のローカル化 応答速度の向上(低遅延)、プライバシー保護の観点から、ローカル(クライアントサイド)で機械学習処理を“完結”させるニーズは高まっている。機械学習を利用するアプリの利用者/開発者の立場から見ると、外部サーバ(データセンター)を利用するコストを削減する観点から機械学習のローカル処理ニーズがあるという
AIの使い道の拡大 PCにおけるAIのローカル処理は、今まではどちらかというとPCやアプリの「機能拡張」という観点で使われることが多かった。しかし、コンテンツ生成型AIの急速な普及にも見られるように、昨今はPCを利用するあらゆる局面で使われるものになりつつある
処理するデータの拡大 AI処理において求められる演算量も加速度的に増えつつある。そういう意味では、単純にCPUやGPUの演算能力を高めるよりも、機械学習に特化したAIプロセッサを搭載した方がパフォーマンスの改善につながる可能性がある

 Meteor Lakeは、従来のx86アーキテクチャCPU向けのソフトウェア資産を活用しつつ、独立したAIエンジン(VPU)を搭載することで「『今まで』と『これから』の橋渡しを行うCPU」になるという。

 内蔵GPU(Intel Iris Xe Graphics)では、並立処理のスループット(実効速度)を向上することで、主に3DレンダリングにおけるAI処理パフォーマンスを向上する。

 また先述の通り、独立したVPUを搭載することでCPU/GPUにおけるAI処理のオフロードや、継続的なAI処理パフォーマンスの向上を図る。Ryzen 7040シリーズではVPUの搭載が一部モデルに限られることを意識してか、IntelはMeteor Lakeでは全てのモデルでVPUを搭載していることを強くアピールしている。

 そしてCPUコアもレスポンスを改善する改良を加えることで、軽量かつ単一推論で済むAI処理のパフォーマンスを改善するとしている。

改良ポイント VPUを新規搭載するだけでなく、CPUコアやGPUコアにも改良を加えることで、あらゆるAI処理のパフォーマンスを改善するという

 問題は、VPUの搭載によってどのくらいのパフォーマンス改善効果があるかという点に尽きる。Intelによると、ビデオ(Web)会議では消費電力を抑えつつ、以下の新機能と改善を実現できるという。

  • 新機能
    • オートフレーミング
    • 視線合わせ
    • アバター表示
    • 身ぶりの認識
  • 改善
    • 背景隠し(ぼかしなど)の精度
    • 動的なノイズ抑制の精度
VPU VPUの搭載によって、ビデオ会議に役立つAI機能をより少ない消費電力で実現できるという。計算上は「演算能力は10倍、消費電力は5分の1」とのことだ

 ただ「全てのモデルにVPUを搭載する」とはいっても、肝心のアプリがVPUに対応していなければ意味はない。そこでIntelは「エコシステム」を活用して一気に対応アプリを拡大する方針のようだ。

 サードパーティー製のアプリでは既に、IntelのCPU/GPUを使って機械学習ベースのAIを実装しているケースがある。これをシームレスにVPU対応にすべく、ツール類の提供を行うなどサードパーティーとの連携を強化していくという。

 また、オープンソースコミュニティへのコミットメントも強化し、VPUをより活用しやすくなる環境作りも進めていく。

サードパーティーアプリ 既に機械学習ベースのAIをCPU/GPUで実装しているアプリに対して、簡単にVPUに移行できるツール類を提供する
コミットメント Adobe AI、ONNX、DirectMLといった機械学習プラットフォームでもVPUを活用できるようにすることで、クリエイター向けアプリをより高速化することも考えているようだ
OSS VPUの活用を進めるべく、オープンソースプロジェクトへのコミットメントも強化する。ゲームで使われることの多い「Unreal Engine」では、リアルタイムモーションキャプチャにおける機械学習処理をVPUにオフロードすることで、GPUのレンダリングパフォーマンスを維持/改善できるようになるという
生成AI VPUはコンテンツ生成型AIでの利活用も想定されている
エコシステム エコシステム面でのメリットがIntelの強みという結論である

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー