検索
連載

M5 Max搭載「14インチMacBook Pro」がワークステーションを過去にする 80万円超の“最強”モバイル AI PCを試す本田雅一のクロスオーバーデジタル(2/5 ページ)

AppleがM5 Pro/Maxチップ搭載の「MacBook Pro」をリリースした。今回は、SSDの容量以外は最上位構成の「14インチMacBook Pro」で、LLMをゴリゴリ動かしてみた。

Share
Tweet
LINE
Hatena

GPUへの「Neural Accelerator」搭載はAI機能をどう変える?

 M5チップファミリーには多様な進化が見られるが、中でも大きな違いとなっているのがGPUアーキテクチャの刷新だ。

 ご存知のように、M5チップ(およびA19チップ)ファミリーのGPUコアには、「Neural Accelerator(ニューラルアクセラレータ)」というAI演算ブロックが組み込まれている。これはNVIDIAのRTX GPUシリーズにおける「Tensorコア」に近い処理回路で、行列演算をGPUコア内で直接かつ並列処理することによってAI処理を高速化できる。

 従来の「Neural Engine」頼みだったAI処理に加えて、Metal 4で用意された「Tensor API」を通してGPUでAIタスクを回すことが可能になった。

M5チップ
M5チップ(とA19チップ)ではGPUコアの構造が刷新され、GPUを使ったAI処理も容易に行えるようになった

 ローカルLLMの実行では、その効果は顕著だ。Apple自身が最適化を行っている「MLXフレームワーク」を用いたテストでは、AIの計算負荷が最も高いプロンプト読み込み段階において、「Qwen3 8B」モデルを用いた約2万トークンの処理速度が「毎秒158.2トークン」から「毎秒578.7トークン」と、実に3.6倍強のスピードアップを果たしているという。これについては後ほど掘り下げて見てみよう。

 M5 Maxチップでは、最大で128GBまでメモリを搭載可能なため、「Qwen3 Coder Next」(※1)のような巨大モデルでも、6bit量子化で圧縮すればローカルで“余裕”を持たせて稼働できる

(※1)アリババのコーディング向けAIモデルで、パラメーターは800億

 NVIDIAの小型スーパーコンピュータ「DGX Spark」と比べた場合、FP4(4bit浮動小数点量子化)やキャッシュの量子化をサポートするBlackwellアーキテクチャのGPUと正面から比較はできないものの、M5 Maxチップの方が共有メモリの帯域が広い(高速)こともあって、推論の速度(プロンプト処理)ではやや劣るが、最終的なトークン出力速度(生成処理)は本機の方が速いことが多かった

 もちろん、こうした高速化の恩恵は、さまざまなクリエイター向けツールでも受けることができる。しかし、今回のレビューで最も驚いたのはLLMを14型のノートブックMacで実用的に動かすことが可能だったことだ。

Geekbench AI
Geekbench AIのスコア

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る