プロナビ

次世代CPU「Lunar Lake」でIntelが目指す“AI PC”とは? 驚くべき進化点と見える弱点、その克服法(4/4 ページ)

» 2024年06月04日 12時00分 公開
[西川善司ITmedia]
前のページへ 1|2|3|4       

NPUコアはCore Ultraプロセッサ(シリーズ1)比で3倍に増量

 Lunar Lakeには、Core Ultraプロセッサ(シリーズ1)で搭載されていた「NPU 3」の進化版となる「NPU 4」が搭載されている。

 NPU 4は、NPUコア「Neural Compute Engine(NCE)」の基数をNPU 3の3倍に当たる6基に増量している。NCE1基当たりの演算能力は、FP16(16bit浮動小数点演算)で1クロック当たり1024回、INT8(8bit整数演算)で1クロック当たり2048回で変更はない。

 また、NPU 4には推論プロセッサの他、128bitのSIMD-VLIWプロセッサである「SHAVE(Streaming Hybrid Architecture Vector Engine) DSP」も引き続き搭載されている。SHAVE DSPはNCE1基当たり2つ、合計で12基が搭載されている。

 余談だが、SHAVE DSPはIntelが2016年に買収したMovidiusが設計したDSPである。

NPUの設計 Lunar LakeのNPU(NPU 4)は、Core Ultraプロセッサ(シリーズ1)のNPU(NPU 3)を3倍の規模に拡大したような設計となっている

 Intelが公称するNPU 4の公称スペックは、INT8演算時で48TOPSだという。ここからINTの理論性能値を計算すると、以下の通りとなる。

2048OPS×2 NCE×2 OPS(積和算)×1.4GHz=11.47TOPS

 このことを踏まえて、48TOPSから逆算すると、こんな計算式ができる。

48TOPS=2048OPS×6 NCE×2 OPS(積和算)×X GHz

 上の計算式における「X」は、NPU 4の動作クロックだ。この式をXについて求めると、「X≒1.953GHz」という値が出てくる。概算ではあるが、Lunar LakeのNPU 4は1.953GHzくらいで動作しているものと思われる。CPUコアのクロックも、同じだろう。

Lunar Lake唯一の弱点は「メモリ」 それを克服する新機能とは?

 Lunar Lakeは、15Wクラスの低消費電力CPUであり、リアルモバイル系の薄型ノートPC向けのCPUとなる。ゆえに“単体で”完成されたPCシステムを実現しなければならない(いわゆる「SoC(System On a Chip)」の類となる)。

 セキュリティ面への多角的なハードウェア対応はもちろんのこと、接続性や拡張性に関しても、最新世代の技術への対応がなされている。

 無線LANはWi-Fi 7(IEEE 802.11be)に対応し、Bluetoothも最新の5.4を利用できる。外部機器との接続にはPCI Express 5.0バスとPCI Express 4.0バスをそれぞれ4レーンずつ用意し、IntelプラットフォームらしくThunerbolt 4ポートも統合している。

 なお、Lunar LakeのThunderbolt 4ポートはPCI Express 4.0/5.0バスとのレーンとは“別枠”で用意されている

セキュリティと接続性 セキュリティ回りの機能と、各種接続/拡張ポートはPlatform Controlerタイル内で提供される。従来のモバイル向けメインストリームCPUとは異なり、無線LANやBluetoothも“チップ内”に統合されている

 ここまで見ると「Lunar Lakeは完成度が高い」と思ってしまうのだが、すごく細かい所まで見ると、気になる点がないわけではない。

 ハイパースレッディング機構の廃止は一定の合理性があるので理解できる。「AI PC」を訴求する関係で、GPUでXMXが復活し、NPUも一気に3倍の性能に引き上げているのも、開発コンセプトと合致する。

 問題は、メモリ回りだ。

出来は良いのだけど…… Intelの最新技術を結集して開発されたLunar Lakeは、モバイル向けCPUとしての完成度は高いのだが……

容量:「AI PC」に最大32GBは心もとない

 第一に最大メモリ容量が32GB止まりという点が気にかかる。チップ上にメモリを置く設計もあってか、DIMMスロットなどを活用しての増設は想定されていないし、当然ながらチップ上に実装されているメモリを換装することもできない

 AI PCというコンセプトが「小規模な推論モデルを実践(実行)する」程度なら32GBのメモリでも十分だとは思う。しかしIntelは「本機単体で大規模な生成AIをローカル動作させられる」と強調していた。そうなると「32GBでは心もとなくない?」とどうしても思ってしまう。

 ちなみに、Core Ultraプロセッサ(シリーズ1)では、Lunar Lakeと同じ15Wクラスの製品(Uプロセッサ)でも最大96GBのメモリをサポートしている。

メモリバス:狭いがゆえに速度が出ない

 第二にメモリバスの狭さとメモリー帯域の狭さも気になる。この部分も、残念ながらCore Ultraプロセッサ(シリーズ1)のUプロセッサに対して見劣りする。

 Core Ultraプロセッサ(シリーズ1)のUプロセッサでは、LPDDR5X-7500規格のメモリモジュールを使うと毎秒120GBのアクセススピードを確保できた。しかし、これがLunar Lakeの場合、メモリモジュールこそ、より高速なアクセスに対応できるLPDDR5X-8500規格なものの、メモリバス幅が半分の64bitしかないため、アクセス速度は毎秒68GBにとどまる。

対策:ラストレベルキャッシュを搭載

 Intelも、この問題に対して無策なわけではない。メモリアクセス性能を補うべく、「Memory Side Cache」と呼ばれる、8MBのラストレベルキャッシュメモリを搭載した――ということである。

 AI系の学習/推論処理、各種グラフィックスレンダリングやレイトレーシング処理において、このキャッシュメモリがどの程度パフォーマンスを向上する効果を持つのか、興味が集まる所だ。

切り札「Memory Side Cache」 メモリバスの狭さと帯域の小ささを補うべく、ComputeタイルのCPUブロックやGPUブロックからも切り離された所に「Memory Side Cache」が設置された。ある種、Lunar Lakeの生命線的ともいうべき機能ブロックといえる
前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー