検索
ニュース

楽天、7000億パラメータの“日本語LLM”を開発 同社サービスに順次導入、26年春ごろオープンモデルに

楽天グループは、大規模言語モデル「Rakuten AI 3.0」を開発したと発表した。前モデル「Rakuten AI 2.0」の470億パラメータを大きく上回る7000億パラメータを持ち、日本語や日本文化の理解に優れるという。

Share
Tweet
LINE
Hatena

 楽天グループは12月18日、大規模言語モデル(LLM)「Rakuten AI 3.0」を開発したと発表した。前モデル「Rakuten AI 2.0」の470億パラメータを大きく上回る7000億パラメータを持ち、日本語や日本文化の理解に優れるという。経済産業省と新エネルギー・産業技術総合開発機構(NEDO)による国内企業向けのAI開発支援プロジェクト「GENIAC」の一環で開発した。

 Rakuten AI 3.0は、複数のサブモデルを組み合わせ、タスクに応じた領域のみを稼働して計算効率を高める技術「Mixture of Experts」を採用し、処理の効率性を高めた。同社サービス「楽天エコシステム」内の試験では、他社の同規模モデルに比べ、最大90%処理コストを削減できたという。日本語性能を測るベンチマークでは、米OpenAIのAIモデル「GPT-4o」を超えるスコアだったとしている。


ベンチマークの結果(1/2、出典:プレスリリース、以下同)

ベンチマークの結果(2/2)

 Rakuten AI 3.0は今後、楽天グループのAIサービス「Rakuten AI」を通じ、同社のサービスに順次導入予定。2026年春ごろには、オープンウェイトモデルとして公開する。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る