LM Studioのインストールが完了したので、続いてLM Studioの初期設定を進めていこう。LM Studioが立ち上がると、初期画面が表示されるので、「Get Started」ボタンをクリックしよう。
続いて利用者の属性を選ぶ画面が表示されるので、初めてローカルLLMを使うのであればシンプルなUIだと混乱せずに済むので「User」→「Continue」の順にクリックしよう。
続いて、初めてのモデルとしてgpt-oss-20bのダウンロードがサジェストされるが、いったん正常に導入されていることを確認するため、画面右上の「Skip」をクリックする。
以下の通り、LM Studioのメイン画面が表示されれば初期設定は完了だ。
LM Studioをインストールすると、デフォルトの言語設定が英語で分かりづらい為、設定画面から言語設定を日本語に切り替えよう。
一昔前のフリーソフトは、日本語化するために有志が公開していた日本語化パッチを当てていた事を考えると、良い時代になったものだ。
すると「App Settings」画面が表示されるので、「Language」セクションの「English」をクリックした後、「日本語(Beta)」をクリックしよう。
すると、上図の通りUIの言語設定が日本語に切り替わる。あくまでβ版として提供されている言語切り替えだが、基本的な利用においては何ら問題なく高い精度で翻訳できているので、実用上問題ないだろう。
最後にLM StudioがPCのGPUを正常に認識しているか確認するため、「ユーザーインタフェースの複雑さレベル」セクションの「ユーザー」をクリックした後、「パワーユーザー」をクリックしよう。
すると「Mission Control」という欄が表示されるので、その中の「Hardware」をクリックし、「GPUs」のセクションにPCに搭載されているGPUが表示されているか確認しよう。
このままでも動作に支障は無いが、詳細な設定を編集しないのであれば、左下の「App Settings」をクリックして再びLM Studioの設定画面に戻り、「ユーザーインタフェースの複雑さレベル」セクションの「パワーユーザー」をクリックした後「ユーザー」をクリックし、不要なメニューを非表示にしておこう。
本記事では、ローカルLLMを導入する連載の1回目として、ローカルLLMの紹介と、実際に利用するためのアプリ「LM Studio」の導入手順を詳しく紹介してきた。
次回は、実際にLM Studioを使ってgpt-oss-20bモデルのダウンロードと、実際にローカルLLMを利用する手順を解説するので、引き続き参考にしていただければ幸いだ。
米AMD、RyzenやRadeonで生成AIをローカル実行するハウツーガイドを公開
NVIDIAがPC上のデータを使うAIチャットbotツール「Chat with RTX」公開/AMD製CPUに複数の脆弱性
生成AIが笑ってしまうほど高速に――Qualcommが450TOPSの“外付け”NPUを開発 Dell Technologiesのx86ノートPCに搭載
OpenAIがローカルで実行可能な言語モデル「gpt-oss」シリーズを公開/Google DeepMindがリアルタイム生成可能なAIモデル「Genie 3」を発表
なぜPCに「AI」が必要なのか? HPのキーマン2人に聞くCopyright © ITmedia, Inc. All Rights Reserved.