生成AIを手元のPC環境で動かせる「ローカルLLM」の導入から活用までを解説する本連載の第2回は、前回導入したLM Studioを使って、実際に手元のPCでLLMを動かす基本的な使い方を解説していく。
LM Studioをインストールしただけでは、LLMは利用できないため、LLMの根幹をなすモデルのダウンロードが必要だ。
→・手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説
LLM(大規模言語モデル:Large Language Models)とは、人間のような受け答えを行うために膨大なデータを学習させた自然言語処理のモデルだ。「gpt-oss」や「DeepSeek R1」などがこれに当たる。
第1回の記事でインストール手順を解説したLM StudioはLLMではなく、あくまでLLMを気軽に利用するためのツールだ。根幹をなすのはLLMとなるため、LM Studioを導入しただけでは利用できない。
今回はLLMの導入を解説しよう。まずは下記の手順を参考に、LM Studioの中でgpt-oss-20bをダウンロードしてみよう。
LM Studioを立ち上げると、画面上部に「モデルを選択してください」と表示されている部分があるので、そちらをクリックしよう。
すると、下図の通り「openai / gpt-oss-20b」がレコメンドされるので、「Download」ボタンをクリックしてgpt-oss-20bをダウンロードする。
なお、モデル名の後ろにある「20b」とは、モデルのパラメーター数を指している。この数が大きければ大きいほど複雑な処理が可能となる指標で、いわばこのモデルがどれくらいの表現力を持っているかを示している。
ただし、このパラメータ数が伸びると性能が上がる一方で、そのPCに求められるスペックが飛躍的に向上していく。とにかく大きい物を選べば良いというわけではないため注意しよう。
参考までに、gpt-ossはgpt-oss-20b以外にgpt-oss-120bも用意されているが、推奨されるGPUのスペックは、グラフィックスメモリ(VRAM)が80GBのGPUという、個人では手の出しようがないスペックを求められる。
今回ダウンロードしたgpt-oss-20bのように、パラメータ数が20bのモデルであれば、VRAMが16GB程度のGPUでも快適に利用できるため、他のモデルを利用する際もパラメータ数が20bまでのモデルと選ぶと良いだろう。
モデルのダウンロードが完了すると、下図の通り「Your Models」に「OpenAI’s gpt-oss 20b」が追加される。これでgpt-oss-20bのダウンロードは完了だ。
早速ダウンロードした「OpenAI’s gpt-oss 20b」をクリックしてみよう。
無事にモデルの読み込みが完了すると、「モデルを選択してください」の表示が「openai/gpt-oss-20b」に変わる。
これはLM Studioがgpt-oss-20bの読み込みを完了したことを指している。タスクマネージャーを確認してみると、GPUのVRAMががっつり消費されている事が見て取れる。
手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説
米AMD、RyzenやRadeonで生成AIをローカル実行するハウツーガイドを公開
NVIDIAがPC上のデータを使うAIチャットbotツール「Chat with RTX」公開/AMD製CPUに複数の脆弱性
生成AIが笑ってしまうほど高速に――Qualcommが450TOPSの“外付け”NPUを開発 Dell Technologiesのx86ノートPCに搭載
OpenAIがローカルで実行可能な言語モデル「gpt-oss」シリーズを公開/Google DeepMindがリアルタイム生成可能なAIモデル「Genie 3」を発表
なぜPCに「AI」が必要なのか? HPのキーマン2人に聞くCopyright © ITmedia, Inc. All Rights Reserved.