レビュー

128GBの大容量メモリが映像制作とAI環境を変える――「M5 Max MacBook Pro」フルスペック機をプロが実戦投入して分かったこと現場で試す新型MacBook Pro(3/3 ページ)

Appleから新たに登場した「M5 Max」チップ搭載のMacBook Pro。BTOで選択可能な128GBユニファイドメモリを備えたフルスペック構成は、プロフェッショナルの現場でどのような真価を発揮するのだろうか。

前のページへ |       

検証02:動画の書き出し速度

 続いて、番組の書き出し速度を検証した。書き出しフォーマットはU-NEXTへの納品データとして使用しているProRes 422 HQだ。

 「ねむるま えほん」では30本(字幕版も別途納品するため合計60本)の納品に加え、U-NEXTや出版社/著者への試写もProResで書き出した映像で行い、修正のたびに書き出し直す。書き出し速度は制作効率に直結する作業だ。最も処理が重い8K素材の番組(長さは20分36秒)でテストした。


M5 Max搭載MacBook ProでProRes 422 HQ書き出し中の様子

advertisement

M5 MaxのMacBook Proで書き出し中のアクティビティモニタ。GPUは100%フル稼働だが、メモリプレッシャーは緑を維持している


M4 MaxのMac Studioで書き出し中のアクティビティモニタ。こちらもGPUは100%稼働だが、書き出し時はどちらもメモリはボトルネックになっていない

書き出し時間の結果は、左がM5 MaxのMacBook Pro(8分14秒、2回目)で、右がM4 Max Mac Studio(8分43秒)。差は約29秒だ

 結果は、M5 MaxのMacBook Proが8分14秒、M4 MaxのMac Studioが8分43秒となった。差は約29秒で、タイムラインパフォーマンスの差と比べると大差は付かなかったというのが正直なところだ。

 なお、M5 Max MacBook Proの初回計測は9分19秒と、むしろM4 Maxより遅い結果が出ていた。2回目の計測で逆転したことから、初回はサーマル管理やバックグラウンド処理の影響があった可能性が高い。2回目以降の安定した数値での比較を参考にしてほしい。

 スクリーンショットを比較すると、どちらもメモリプレッシャーは緑をキープしており、書き出しはメモリがボトルネックにはなっていない。CPUコア構成の違い(M4 MaxとM5 Maxではコア設計が変更されている)から、アクティビティモニタ上での直接比較は難しいが、GPUはどちらも100%稼働しており、書き出し速度は純粋にCPU/GPUのコア数と世代差が反映されているものと考えられる。

検証結果まとめ
検証項目 M5 Max搭載MacBook Pro(128GB) M4 Max搭載Mac Studio(36GB)
フル画質タイムライン再生 ○(コマ落ちなし) ×(約15分中で数回コマ落ち)
メモリプレッシャー(再生時) 常時グリーン(75GB超でも) 黄→赤に変化/音声ノイズも発生
実使用メモリ(再生時) 45~100GB使用(余裕あり) 20~30GB使用(ほぼ上限)
ProRes書き出し(20分36秒) 8分14秒(2回目) 8分43秒
書き出し時GPU使用率 100%(フル稼働) 100%(フル稼働)

ローカルLLM/AI画像生成での検証

 M5 Maxでメモリ128GBというモンスター級の性能を最もダイナミックに生かせる分野として、現在最も注目されているのがローカルLLMだ。クラウドAPIを使わず、Mac本体だけで実用的な大規模言語モデルを動かすことができる。

 今回、日頃からローカルLLMで遊んでいるトトノイ人の広岡ジョーキ氏に試してもらい、その所感を聞いた。


実際には、生成した画像を参照画像として使った画像編集も行い、その快適さに驚いていたが、記事に反映したのはComfyUIの公式サイトからダウンロードできるFLUX.2[Klein] 9B用ワークフローをデフォルトのままの状態でテストしたものに絞っている。

128GBが変えるローカルLLMの世界

 ローカルLLMの実力は、搭載メモリ量に直結する。大規模言語モデルは、モデル全体がメモリに収まることが高速動作の条件となる。一般的なWindows PCのGPUメモリが8~24GB程度であることを考えると、MacBook Proの128GBという統合メモリは別次元の環境だ。

 広岡氏がまず動かしたのは、β版として公開されたばかりの「Unsloth Studio」だ。モデルのメモリ使用量を抑えつつ、高速で動かせるローカルLLM実行環境となる。Alibabaが開発したQwen3.5シリーズの蒸留版、Qwen3.5-27B-UD-Q4_K_XLをダウンロードして動かしてみた。

 広岡氏が普段使用しているM4 Pro搭載Mac Mini(64GBメモリ)に比べ、体感で2倍近くの速度が出たという。

ローカル画像生成も驚異のスピード

 ローカルLLMだけでなく、AIによる画像生成においてもM5 Max搭載MacBook Proは圧倒的だ。広岡氏は、ComfyUI(画像生成モデルのワークフローなどを組めるノードベースのアプリ)でBlack Forest LabsのFLUX.2[Klein] 9Bの画像生成ワークフローをテストした。FLUX.2[Klein]は生成と編集の両方を単体で行えるモデルで、比較的軽量ながら高品質な画像生成を行えることで知られる。

 1024×1024ピクセル/20ステップの画像生成で、1回目は約2分28秒で完了した。2回目以降はさらに速くなり、512×512ピクセルでは約24秒で生成できた。

 M4 ProのMac mini(64GBメモリ)の環境では前者が8分43秒、後者が2分39秒と3.5~6倍という圧倒的性能向上を見ることができた。

 広岡氏は「512ピクセルでここまで速いなら、この解像度でいったん生成してからSeedVR2のような高品質なアップスケーラーで高解像度にするワークフローが現実的になる」と言う。

 SeedVR2はByteDance-Seedチームが開発した画像/映像両対応のアップスケーラーで、ComfyUIの専用ノードで使用できる。

まとめ

 今回の検証を通じて分かったのは、M5 Maxを搭載したMacBook Pro(128GBメモリ)の真価が「圧倒的なメモリ量」にあるということだ。

 映像制作の観点では、8K素材を使ったフル画質のタイムライン再生において、M4 Max(36GB)では実用が難しかった領域を軽々とこなす。この差を生んでいるのはチップの世代というよりもメモリ容量であり、M4 MaxあるいはM5 Maxでも48GB以上のメモリ構成であれば同様の快適さを得られる可能性がある。

 「メモリが大事」という一見当たり前の結論だが、この変化はベンチマークには現れにくく、具体的なユースケースに当てはめて初めて露見するものだと痛感した。

 ローカルLLMの観点では、128GBメモリは現行最大クラスのLLMを丸ごと展開できるまれな環境となる。もちろん、Windows環境でも128GBのメモリを搭載できるモデル(ワークステーションクラスとなるが)もあるし、NVIDIAのGPUを備えたWindows PCと比べて、画像生成のスピードなどはまだ及ばないが、「静音・コンパクト・バッテリー駆動・どこでも持ち歩ける」というMacBook Proならではの利点は、ローカルAI開発の現場では非常に強力な武器だ。

 一方で、84万円を超える価格のフルスペック構成は誰にでも必要かといえば、そうではない。今回の映像制作の用途であれば、M5 Proでメモリ64GB構成(約52万円)でも十分なパフォーマンスを得られる可能性があり、コストパフォーマンスを重視するならそちらも有力な選択肢だ。

 また、単に編集作業をこなすだけであれば、M5搭載MacBook Air(32GB)でも全く問題ないことも確認できた。現行のMacラインアップが提供する柔軟な選択肢の中で、最高峰のノートPCが持つポテンシャルを実証できたことは非常に有意義であった。

U-NEXTオリジナル番組「ねむるま えほん」について

 今回の検証に協力いただいた石川将也氏は、U-NEXTオリジナル(U-NEXT Kids)の絵本読み聞かせ番組「ねむるま えほん」の企画・監督・デザインを担うクリエイターだ。

 「ねむるま えほん」は2024年より始まった番組で、制作はコグ合同会社が担当する。絵本をデジタルスキャンするのではなく、本を実際にめくっている様子を撮影し、ページをめくる音も活用するなど、上質な読書体験の映像化を試みている。選書や監修は、自身も書店を営む元でんぱ組.incの夢眠ねむさん、朗読は小泉今日子さんやヒコロヒーさんらが担当する。番組末尾の寝かしつけアニメ「ねむるまあにめ」も好評だ。

 2026年にシーズン2(32本)の配信が始まり、現在合計62冊(本)の選りすぐりの絵本を視聴できる。

※協力:石川将也(コグ合同会社/「ねむるま えほん」企画・監督・デザイン)、広岡ジョーキ(トトノイ人

前のページへ |       

Copyright © ITmedia, Inc. All Rights Reserved.