「gpt-oss」はチャット機能以外にも活用方法がたくさん? 最新のWeb情報を利用するやり方も伝授:“超”初心者向けローカルAI「gpt-oss」導入ガイド(3)(2/5 ページ)
本連載ではローカルLLMの導入方法から活用方法に至るまで、「手元にハイエンドPCがあって、生成AIをローカル環境で動かしてみたい」という初心者の方にも分かりやすく連載で解説する。
Web Search MCP Serverを利用するための事前準備
Web Search MCP Serverは導入にあたり、Node.jsとnpmの導入が必要となる。まずはNode.jsの導入を簡易化できる「NVM for Windows」をインストールしよう。
上記、GitHubリポジトリのReleaseページから、最新の「nvm-setup.exe」をダウンロードして実行し、NVM for Windowsをインストールする。
インストール後にPowerShellを立ち上げて、「nvm list available」コマンドを実行すると、現在インストールできるNode.jsのバージョン一覧が表示される。
Web Search MCP Serverは、Node.js 18.0.0より新しいバージョンが必要なので、今回はLTS(長期サポートバージョン)の最新バージョンである「22.19.0」を利用するため、下記のコマンドを実行して導入しよう。
nvm install 22.19.0
nvm use 22.19.0
Web Search MCP Serverのインストール
事前準備が完了したら、続いてWeb Search MCP ServerのGitHubリポジトリの最新版をgitコマンドを使って取得しよう。なお、gitコマンドを実行してエラーが発生する場合、winget install gitを実行し、Git for Windowsをインストールしてから再度実施して欲しい。
また、事前にWeb Search MCP Serverを導入するフォルダーを作成してから実行する必要があるので注意が必要だ(例ではC:\workを指定)。
cd C:\work
git clone https://github.com/mrkrsl/web-search-mcp.git
続いて、下記コマンドを実行してWeb Search MCP Serverをインストールしよう。
npm audit fix
npm install
npx playwright install
npm run build
最後に「TypeScript compilation complete: dist/index.js'」と表示されれば導入は完了だ。
関連記事
手元にあるゲーミングPCを活用して生成AIを動かす! 無料で使える「LM Studio」のキホンを解説
本連載ではローカルLLMの導入方法から活用方法に至るまで、「手元にハイエンドPCがあって、生成AIをローカル環境で動かしてみたい」という初心者の方にも分かりやすく連載で解説する。手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説
本連載ではローカルLLMの導入方法から活用方法に至るまで、「手元にハイエンドPCがあって、生成AIをローカル環境で動かしてみたい」という初心者の方にも分かりやすく連載で解説する。米AMD、RyzenやRadeonで生成AIをローカル実行するハウツーガイドを公開
GPTベースのLLM(大規模言語モデル)を使ったAIチャットbotの実行、LLMをローカルでカスタマイズできる検索拡張生成(RAG)の導入、プログラミングにおけるコーディングアシスタントの実行という3つの手順を紹介している。NVIDIAがPC上のデータを使うAIチャットbotツール「Chat with RTX」公開/AMD製CPUに複数の脆弱性
うっかり見逃していたけれど、ちょっと気になる――そんなニュースを週末に“一気読み”する連載。今回は、2月11日週を中心に公開された主なニュースを一気にチェックしましょう!
Copyright © ITmedia, Inc. All Rights Reserved.