リコーがGoogle「Gemma 3」ベースの日本語LLMを開発 オンプレミスでの導入に最適化AIニュースピックアップ

リコーはGoogleのオープンウェイトモデルを基盤にした日本語LLMを開発し、オンプレミスでの導入を想定した高性能モデルとして発表した。モデルマージ技術やノーコード開発環境と組み合わせて、企業の生成AI活用を支援する。

» 2025年12月11日 08時00分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 リコーは2025年12月8日、Googleのオープンウェイトモデル「Gemma 3 27B」を基礎とした日本語大規模言語モデル(LLM)を開発したと発表した。

リコーの新モデル、その性能は?

 同モデルはリコー独自のモデルマージ技術を用いて性能が高められており、オンプレミス環境での導入を念頭に置いて設計されている。

「Japanese MT-Bench」や「Elyza-tasks-100」などの日本語ベンチマークでOpenAIのオープンウェイトモデル「gpt-oss-20b」などと同程度のスコアが得られた。非推論モデルであるため応答スピードも速いという。高い執筆能力も併せ持ち、ビジネス用途での活用に適した水準を達成したと説明している。

 同モデルは270億パラメーターという比較的軽量なモデルであり、安価なサーバで運用可能とうたう。導入コストを抑えつつプライベートLLM環境を構築できる構成で、電力消費の削減や環境負荷低減にも寄与するとしている。個別提供にも対応し、利用者の要望に合わせた展開が可能だという。

 リコージャパンは、同モデルの量子化モデルと生成AI開発プラットフォーム「Dify」をインストールした「Private AI Platform on PRIMERGY」(エフサステクノロジーズの対話型生成AI基盤)を2025年12月下旬から提供する。Difyを利用することで、特定の業務に特化した生成AIアプリケーションをノーコードで作成できる。リコージャパンの支援サービスを組み合わせることで、専門人材が不足している組織でも活用しやすい構成となる。

 リコーは、今後も推論性能の向上や業種特化モデルの開発を継続し、画像・音声を含むマルチモーダル性能も含めて、独自LLMのラインアップを強化する方針を示している。過去には画像認識や深層学習を生かした製造分野用のソリューションを展開し、2021年以降は自然言語処理の活用により文書分析や顧客対応支援の領域を拡大してきた。2023年には独自LLMを公開し、その後も多言語に対応するモデルを展開するなど、企業向けAI基盤の整備を続けている。

 今回のLLM開発では特許出願中のモデルマージ技術を中心に、効率的なモデル構築手法を取り入れた。利用者の環境や用途に応じたプライベートLLMを短期間かつ低コストで提供する体制を整えており、音声対話機能を備えたAIエージェントの展開にも取り組んでいる。音声認識技術を活用した対話機能の研究開発も進めており、今後のサービス拡充を見据えた基盤構築が進んでいる。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR