M5チップファミリーには多様な進化が見られるが、中でも大きな違いとなっているのがGPUアーキテクチャの刷新だ。
ご存知のように、M5チップ(およびA19チップ)ファミリーのGPUコアには、「Neural Accelerator(ニューラルアクセラレータ)」というAI演算ブロックが組み込まれている。これはNVIDIAのRTX GPUシリーズにおける「Tensorコア」に近い処理回路で、行列演算をGPUコア内で直接かつ並列処理することによってAI処理を高速化できる。
従来の「Neural Engine」頼みだったAI処理に加えて、Metal 4で用意された「Tensor API」を通してGPUでAIタスクを回すことが可能になった。
ローカルLLMの実行では、その効果は顕著だ。Apple自身が最適化を行っている「MLXフレームワーク」を用いたテストでは、AIの計算負荷が最も高いプロンプト読み込み段階において、「Qwen3 8B」モデルを用いた約2万トークンの処理速度が「毎秒158.2トークン」から「毎秒578.7トークン」と、実に3.6倍強のスピードアップを果たしているという。これについては後ほど掘り下げて見てみよう。
M5 Maxチップでは、最大で128GBまでメモリを搭載可能なため、「Qwen3 Coder Next」(※1)のような巨大モデルでも、6bit量子化で圧縮すればローカルで“余裕”を持たせて稼働できる。
(※1)アリババのコーディング向けAIモデルで、パラメーターは800億
NVIDIAの小型スーパーコンピュータ「DGX Spark」と比べた場合、FP4(4bit浮動小数点量子化)やキャッシュの量子化をサポートするBlackwellアーキテクチャのGPUと正面から比較はできないものの、M5 Maxチップの方が共有メモリの帯域が広い(高速)こともあって、推論の速度(プロンプト処理)ではやや劣るが、最終的なトークン出力速度(生成処理)は本機の方が速いことが多かった。
もちろん、こうした高速化の恩恵は、さまざまなクリエイター向けツールでも受けることができる。しかし、今回のレビューで最も驚いたのはLLMを14型のノートブックMacで実用的に動かすことが可能だったことだ。
Apple、新チップ「M5 Pro/Max」発表 新開発の「Fusionアーキテクチャ」を搭載
突然の「スーパーコア」誕生と消えたEコア――Apple M5 Pro/Maxが断行した「CPU大再編」を読み解く
Maxonのベンチマークアプリ「Cinebench」に2026年版 最新GPU対応に加え、マルチスレッド対応CPU用テストも登場
Apple、新型「Studio Display XDR」発表 ミニLEDで最大2000ニト、120Hz対応、Thunderbolt 5搭載
「Mac Studio」「Studio Display」を試して実感した真の価値 小型・高性能に加えてAppleの総合体験も提供Copyright © ITmedia, Inc. All Rights Reserved.