手元にあるゲーミングPCを活用して生成AIを動かす! 無料で使える「LM Studio」のキホンを解説“超”初心者向けローカルAI「gpt-oss」導入ガイド(2)(1/4 ページ)

» 2025年09月12日 13時40分 公開
[Yukito KATOITmedia]

 生成AIを手元のPC環境で動かせる「ローカルLLM」の導入から活用までを解説する本連載の第2回は、前回導入したLM Studioを使って、実際に手元のPCでLLMを動かす基本的な使い方を解説していく。

 LM Studioをインストールしただけでは、LLMは利用できないため、LLMの根幹をなすモデルのダウンロードが必要だ。

→・手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説

gpt-ossのダウンロード

 LLM(大規模言語モデル:Large Language Models)とは、人間のような受け答えを行うために膨大なデータを学習させた自然言語処理のモデルだ。「gpt-oss」や「DeepSeek R1」などがこれに当たる。

 第1回の記事でインストール手順を解説したLM StudioはLLMではなく、あくまでLLMを気軽に利用するためのツールだ。根幹をなすのはLLMとなるため、LM Studioを導入しただけでは利用できない。

 今回はLLMの導入を解説しよう。まずは下記の手順を参考に、LM Studioの中でgpt-oss-20bをダウンロードしてみよう。

 LM Studioを立ち上げると、画面上部に「モデルを選択してください」と表示されている部分があるので、そちらをクリックしよう。

photo gpt-oss-20bをダウンロードするため、画面上部の「モデルを選択してください」をクリックしてみよう

 すると、下図の通り「openai / gpt-oss-20b」がレコメンドされるので、「Download」ボタンをクリックしてgpt-oss-20bをダウンロードする。

photo gpt-oss-20bがサジェストされるので、「Download」ボタンをクリックしてモデルをダウンロードしよう

 なお、モデル名の後ろにある「20b」とは、モデルのパラメーター数を指している。この数が大きければ大きいほど複雑な処理が可能となる指標で、いわばこのモデルがどれくらいの表現力を持っているかを示している。

 ただし、このパラメータ数が伸びると性能が上がる一方で、そのPCに求められるスペックが飛躍的に向上していく。とにかく大きい物を選べば良いというわけではないため注意しよう。

 参考までに、gpt-ossはgpt-oss-20b以外にgpt-oss-120bも用意されているが、推奨されるGPUのスペックは、グラフィックスメモリ(VRAM)が80GBのGPUという、個人では手の出しようがないスペックを求められる。

 今回ダウンロードしたgpt-oss-20bのように、パラメータ数が20bのモデルであれば、VRAMが16GB程度のGPUでも快適に利用できるため、他のモデルを利用する際もパラメータ数が20bまでのモデルと選ぶと良いだろう。

 モデルのダウンロードが完了すると、下図の通り「Your Models」に「OpenAI’s gpt-oss 20b」が追加される。これでgpt-oss-20bのダウンロードは完了だ。

photo モデルのダウンロードが完了すると、Your Modelsに一覧として追加される

 早速ダウンロードした「OpenAI’s gpt-oss 20b」をクリックしてみよう。

 無事にモデルの読み込みが完了すると、「モデルを選択してください」の表示が「openai/gpt-oss-20b」に変わる。

 これはLM Studioがgpt-oss-20bの読み込みを完了したことを指している。タスクマネージャーを確認してみると、GPUのVRAMががっつり消費されている事が見て取れる。

photo gpt-oss-20bの読み込みが完了した際の様子。VRAMの使用量が大きく増えていることが分かる
       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー