M4 Mac miniで「gpt-oss」は動く? 動作が確認できたローカルLLMは……“超”初心者向けローカルAI「gpt-oss」導入ガイド(5)(1/5 ページ)

» 2025年09月30日 12時00分 公開
[Yukito KATOITmedia]

 gpt-oss-20bをはじめとしたローカルLLM(大規模言語モデル)導入について連載で詳しく解説してきたが、どれも外部GPUを搭載したゲーミングPCなどの利用を前提としたものだった。

 eスポーツが興隆している現在でもゲーミングPCの所有者は限られており、多くの読者は「自分のPCでは実行できないのか」と感じたかもしれない。

 そこで本記事では、筆者が所有する外部GPU非搭載の「M4 Mac mini」(16GBモデル)を使用し、gpt-oss-20bが利用できるか検証した。

【第1回】手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説

【第2回】手元にあるゲーミングPCを活用して生成AIを動かす! 無料で使える「LM Studio」のキホンを解説

【第3回】「gpt-oss」はチャット機能以外にも活用方法がたくさん? 最新のWeb情報を利用するやり方も伝授

【第4回】テキストだけじゃない? 画像データも理解できる「VLM」(視覚言語モデル)を導入する方法

基本的に最低16GBのVRAMまたはユニファイドメモリがあればOK

 gpt-oss-20bを動作する上での必要なスペックは、グラフィックスメモリ(VRAM)またはユニファイドメモリが16GB以上あることが求められている。ユニファイドメモリと言えば、Apple Siliconが搭載されたMacBook ProやMacBook Airで最近見受けられるようになったもので、CPUやGPUが、同じメモリを共有して使用する仕組みだ。

 これによりメモリ転送のボトルネックが解消されるため、ローカルLLMの利用時においては大きなアドバンテージが得られる。となれば「ユニファイドメモリを16GB搭載したM4 Mac miniでも、gpt-oss-20bを動作させられるのでは」と筆者は考えたので、実際にテストしてみた。

 なお、macOSでもLM Studioが利用できるため、導入手順を確認しながら実際にgpt-oss-20bを動作させてみよう。

       1|2|3|4|5 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー