米NVIDIAは12月15日(現地時間)、エージェント型AIの構築に最適化されたオープンな基盤モデルファミリー「Nemotron 3」を発表した。
計算資源とユースケースに応じて選択可能な「Nano」「Super」「Ultra」の3モデル構成。モデルの重みだけでなく、データセット、トレーニングレシピ、開発ツールチェーンを含めたフルスタックのオープンソースとして提供される。
Nemotron 3は、アーキテクチャにハイブリッドなMixture-of-Experts(MoE:混合エキスパート)を採用している。8月に発表した「Nemotron Nano 2」の設計思想を継承しつつ、大規模なエージェントワークフロー向けに改良を加えたものだ。推論時にアクティブになるパラメータを動的にルーティングすることで、高スループットを維持しながら、複雑な推論タスクにおける回答精度を向上させたとしている。
最大100万トークンにおよぶロングコンテキストへの対応も特徴だ。これにより、RAG(検索拡張生成)における大量ドキュメントの参照や、長期記憶を必要とするマルチターン対話、複数のサブエージェントが連携してコード実行やAPIコールを行う「マルチステップ推論」で、コンテキスト落ちを防ぎながら安定した挙動を実現する。
まず提供が開始された「Nemotron 3 Nano」は、ファミリーの中で最も軽量なモデルで、エッジデバイスやローカル環境での高効率な推論をターゲットとしている。
Hugging Faceでの技術解説によると、Nanoモデルは品質と推論効率のトレードオフを極限まで最適化しており、商用利用やリサーチ用途に耐えうる「実用的な小規模モデル」として設計されている。開発者は、自身のタスクに合わせてSFT(教師ありファインチューニング)やRLHF(人間からのフィードバックによる強化学習)を追加で行い、独自の派生モデルを作成・配布することが可能だ。
NVIDIAはNemotron 3を、単なるLLMではなく「次世代エージェントシステムの基盤」と位置付けている。事前学習から指示追従(Instruction Tuning)、アライメントまでのプロセスを透明化し、学習レシピを公開することで、開発者はモデルの挙動を深く理解し、再現性を担保できるとしている。
また、このモデル群はNVIDIAのH100やBlackwellアーキテクチャ上のTensorRT-LLMで最大化されるよう最適化されてはいるが、オープンモデルとして提供されるため、幅広い環境での検証が可能だ。NVIDIAはこれにより、エンタープライズレベルの複雑なエージェントワークフローを、ブラックボックス化させずに構築できるエコシステムの確立を狙う。
上位モデルである「Super」および「Ultra」も、今後順次リリースされる予定だ。
NVIDIA、産業用ロボ大手のファナックと協業 「フィジカルAI」を推進
「Cursor」のAnysphere、23億ドル調達 NVIDIAとGoogleも出資
AIは「大きい」より「小さい」方がいい──AIエージェントの開発手法、米NVIDIAが主張 LLMをSLMに移行する技術も掲載
NVIDIA、日本語データセットを公開 日本文化など反映した合成ペルソナ600万件 商用利用も可能Copyright © ITmedia, Inc. All Rights Reserved.