楽天グループは2月12日、2024年12月に発表した大規模言語モデル(LLM)「Rakuten AI 2.0」と小規模言語モデル(SLM)「Rakuten AI 2.0 mini」の提供を始めた。同社のHugging Face公式ページで公開中。ライセンスは「Apache 2.0」で商用利用なども可能だ。
Rakuten AI 2.0は、同社が24年3月に公開した日本語に最適化した基盤モデル「Rakuten AI 7B」を基に開発したもの。一つのモデルを複数のサブモデルで構成し、問題に応じて使う領域を適切に選んで計算効率を高める技術「Mixture of Experts」(MoE)を採用している。今回開発したLLMは、70億パラメータのサブモデル8つで構成した。
Rakuten AI 2.0 miniは、15億パラメータの基盤モデル。同社が内製したフィルタリング技術などでキュレーションした日本語と英語のデータセットを学習に使うことで、高性能かつ高精度なテキスト生成処理を実現したという。サイズが小さいため、モバイル端末への導入や、データをリモートサーバに送信した自社運用での利用も想定しているという。
「これらのモデルは、コンテンツの要約、質問への回答、一般的なテキスト理解、対話システムの構築など、さまざまなテキスト生成タスクでの商業利用が可能。さらに、これらのモデルは新しいモデルを構築するためのベースとしても利用することができる」(楽天グループ)
話題の中華LLM「DeepSeek R1」の日本語追加学習モデル サイバーエージェントが無料公開
DeepSeekで注目された「蒸留」って何だ? 識者が解説
楽天モバイル、メッセージアプリ「Rakuten Link」に生成AI機能を搭載 利用するAIモデルは明かさず
【後編】孫正義×サム・アルトマンのAI対談、全編文字起こし 「AIは人を幸せにする。賭けてもいい」
マスク氏、974億ドルのOpenAI買収を主導 「Twitterを97.4億ドルで買収しましょうか」とアルトマンCEOCopyright © ITmedia, Inc. All Rights Reserved.