Sakana AIが日本仕様のLLM「Namazu」を開発 新サービス「Sakana Chat」も公開AIニュースピックアップ

Sakana AIは日本仕様に調整した学習モデル「Namazu」を開発し、新サービス「Sakana Chat」を公開した。独自の事後学習技術により、海外モデル特有のバイアスや回答拒否を解消し、日本独自の文脈に即した中立的で正確な応答を実現した。

» 2026年03月27日 08時00分 公開

この記事は会員限定です。会員登録すると全てご覧いただけます。

 Sakana AIは2026年3月24日、各国の文化や制度に適応する事後学習技術の実証として、既存の高性能オープンモデルを日本仕様に調整した「Namazu」シリーズ(α版)を開発し、チャットサービス「Sakana Chat」を公開した。

日本仕様AI「Namazu」公開 事後学習で性能維持と改善を実現

 同社は、大規模言語モデル(LLM)の事前学習が一部の国や企業に集中している中で、公開済みの高性能モデルを活用し、事後学習(post-training)によって利用地域に適した挙動へ調整する技術の開発に取り組んできた。海外モデルには開発地域の価値観や情報統制の影響が含まれるため、日本での利用に適した応答を実現するための手法を構築した。

 Namazuシリーズは、各社のオープンウェイトモデル「DeepSeek-V3.1」「Llama-3.1-405B」「gpt-oss-120B」を基盤としている。独自データによる事後学習により、文化的背景や社会的文脈に配慮した応答を目指した。

 性能評価においては、推論や知識、コード生成を測る主要指標において、元モデルと同程度の水準を維持した。AIMEやMMLUなどの指標では一部で向上も確認され、基礎能力を保ったまま調整が可能であることを示した。

 政治や歴史などのテーマに関する評価では中立性と事実の網羅性が大きく改善した。特にLlama系モデルでは改善幅が大きく、全モデルで数値の上昇が確認された。加えて、特定の話題に関する回答拒否の問題も大きく減少し、DeepSeek系モデルでは約72%だった拒否率がほぼ0%となった。

 日本語評価では主要ベンチマークにおいて元モデルや同規模の他社モデルと同等の結果を示した。他方で、検索機能を活用した場合、QAタスクで大きな向上が見られ、Namazuモデルが最高スコアを記録した。

 Sakana ChatはWeb検索機能を備え、最新情報を取得して回答に反映できる。公開前には約1000人による試験運用を実施し、得られた意見を改良に反映した。公開後も利用状況を踏まえた改善を続ける方針だ。

 同社は今後、技術報告書の公開やモデルの配布を予定している。加えて、複数モデルの制御やエージェント技術の統合を進め、より広範な用途に対応するAIの開発を目指すとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR