2022年末にOpenAIが「ChatGPT」をリリースしたことを皮切りに生成AIブームが巻き起こり、今では業務に欠かせない製品にまで成熟してきた。
ChatGPTやCopilot、Geminiといったクラウドサービスは基本的な範囲であれば無償で利用できるが、入力されたデータが学習されてしまったり、利用回数の制限があったりする。そうした制限を取り払い、プライバシーに配慮して利用したい場合は、別で有償プランを契約する必要が出てくる。
特にこれらは他のサブスクリプションサービスと比べて月額費用が高い。個人での利用はハードルが少し高いのが現状だ。できれば費用を抑えつつ、プライバシーに配慮して生成AIをしたいところだが、何か良いものはないだろうか、とお悩みの方も居るのではないだろうか。
さて、そんな方にこの悩みを非常にシンプルな方法で解決できる方法を紹介したい。それが「ローカルLLM」だ。
ローカルLLMとは読んで字のごとく、クラウドサービスではなく手元のPCやサーバ上で「DeepSeek R1」や今話題のオープンウェイトリーズニングモデル「gpt-oss」といったLLM(大規模言語モデル)を動かすことを指す。
クラウドサービスと違い、入力したデータは手元のPCやサーバ上で処理されるため、サブスクリプション契約を結ばずとも、安全に生成AIを利用できるため、ローカルLLMの導入は大きなメリットを享受できる。
しかし、今までは導入に至るまで、CLIでのコマンド操作などが必要で、一定の障壁があったのだが、近年は非常に簡単に導入できるようになりつつある。
とはいえ、専用ソフトの導入などが必要なことには変わりない。そこで本連載では、ローカルLLMの導入方法から活用方法に至るまでを初心者の方にも分かりやすく解説していこう。
米AMD、RyzenやRadeonで生成AIをローカル実行するハウツーガイドを公開
NVIDIAがPC上のデータを使うAIチャットbotツール「Chat with RTX」公開/AMD製CPUに複数の脆弱性
生成AIが笑ってしまうほど高速に――Qualcommが450TOPSの“外付け”NPUを開発 Dell Technologiesのx86ノートPCに搭載
OpenAIがローカルで実行可能な言語モデル「gpt-oss」シリーズを公開/Google DeepMindがリアルタイム生成可能なAIモデル「Genie 3」を発表
なぜPCに「AI」が必要なのか? HPのキーマン2人に聞くCopyright © ITmedia, Inc. All Rights Reserved.