楽天、7000億パラメータの日本語LLM「Rakuten AI 3.0」を発表 各種サービスに展開予定AIニュースピックアップ

楽天が日本語特化LLM「Rakuten AI 3.0」を発表した。MoE採用で性能と計算効率を両立し、日本語版MT-Benchで高得点を記録している。GENIAC支援のもと自社サービスへ導入する他、来春にはオープンウェイトモデルとしての公開を予定している。

» 2025年12月27日 08時00分 公開
[ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 楽天グループ(以下、楽天)は2025年12月18日、経済産業省および新エネルギー・産業技術総合開発機構(NEDO)が推進する生成AI開発支援施策「GENIACプロジェクト」の枠組みで、新たなAIモデル「Rakuten AI 3.0」を開発したと発表した。日本語に特化した大規模言語モデル(LLM)で、日本語ベンチマークにおいて主要モデルと比較して最高水準のスコアを記録したとしている。

7000億パラメータ「Rakuten AI 3.0」の性能とは 

 Rakuten AI 3.0は、Mixture of Experts(MoE)アーキテクチャを採用した日本語LLMで、生成AI APIを統合した開発用基盤「Rakuten AIゲートウェイ」の生成AI API群に加わる。AIエージェントプラットフォーム「Rakuten AI」を通じて同社の各種サービスへ段階的に導入される計画で、来春をめどにオープンウェイトモデルとして公開する方針だ。

 同モデルは約7000億のパラメータを持ち、日本語に特化したLLMとしては楽天が開発した中で最大規模。オープンソースコミュニティのモデルを基盤とし、楽天独自のバイリンガルデータや研究成果を使って構築した。日本語特有の表現や文化、慣習への理解を深める設計とし、性能と計算効率のバランスに配慮した点を特徴とする。「楽天経済圏」のサービスを支える利用試験においては、同規模の他社モデルを用いた場合と比べ、運用コストを最大90%削減したという。

 全パラメータの内トークンごとに約400億個のみをアクティブ化する構造を採用し、計算効率を向上させた。アクティブパラメータは3つの密な層とエキスパートコンポーネントで構成され、各トークンは共有エキスパートと8つの専門エキスパートを経由する。モデルの学習は楽天が設計した社内マルチノードGPUクラスターで実行され、隔離されたクラウド環境で展開されるため、データが外部へ送信されることはない。日本市場と同社事業に適した独自データによるファインチューニングも施した。

 性能評価には日本語版「MT-Bench」を使い、会話能力や指示理解能力、専門的内容への対応力を測定した。その結果、Rakuten AI 3.0は8.88のスコアを記録し、楽天の従来モデルや他の日本語特化モデルと比較して高いスコアを示した。同モデルは、生成AIの開発力強化に向けた経済産業省のプロジェクト「GENIAC」第3期で採択された「長期記憶メカニズムと対話型学習を融合した最先端の生成 AI 基盤モデルの研究開発」に基づいており、モデルの学習費用の一部は同制度の支援を受けている。楽天は自社モデルの開発を通じてLLMに関する知見を蓄積し、今後もAI技術を活用した新たな価値創出を推進する考えを示している。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR