gpt-oss-20bをはじめとしたローカルLLM(大規模言語モデル)導入について連載で詳しく解説してきたが、どれも外部GPUを搭載したゲーミングPCなどの利用を前提としたものだった。
eスポーツが興隆している現在でもゲーミングPCの所有者は限られており、多くの読者は「自分のPCでは実行できないのか」と感じたかもしれない。
そこで本記事では、筆者が所有する外部GPU非搭載の「M4 Mac mini」(16GBモデル)を使用し、gpt-oss-20bが利用できるか検証した。
【第1回】手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説
【第2回】手元にあるゲーミングPCを活用して生成AIを動かす! 無料で使える「LM Studio」のキホンを解説
【第3回】「gpt-oss」はチャット機能以外にも活用方法がたくさん? 最新のWeb情報を利用するやり方も伝授
【第4回】テキストだけじゃない? 画像データも理解できる「VLM」(視覚言語モデル)を導入する方法
gpt-oss-20bを動作する上での必要なスペックは、グラフィックスメモリ(VRAM)またはユニファイドメモリが16GB以上あることが求められている。ユニファイドメモリと言えば、Apple Siliconが搭載されたMacBook ProやMacBook Airで最近見受けられるようになったもので、CPUやGPUが、同じメモリを共有して使用する仕組みだ。
これによりメモリ転送のボトルネックが解消されるため、ローカルLLMの利用時においては大きなアドバンテージが得られる。となれば「ユニファイドメモリを16GB搭載したM4 Mac miniでも、gpt-oss-20bを動作させられるのでは」と筆者は考えたので、実際にテストしてみた。
なお、macOSでもLM Studioが利用できるため、導入手順を確認しながら実際にgpt-oss-20bを動作させてみよう。
テキストだけじゃない? 画像データも理解できる「VLM」(視覚言語モデル)を導入する方法
「gpt-oss」はチャット機能以外にも活用方法がたくさん? 最新のWeb情報を利用するやり方も伝授
手元にあるゲーミングPCを活用して生成AIを動かす! 無料で使える「LM Studio」のキホンを解説
手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説
米AMD、RyzenやRadeonで生成AIをローカル実行するハウツーガイドを公開
NVIDIAがPC上のデータを使うAIチャットbotツール「Chat with RTX」公開/AMD製CPUに複数の脆弱性Copyright © ITmedia, Inc. All Rights Reserved.