メディア
ITmedia AI+ >

リコー、“GPT-4o並み”の日本語性能持つLLMを開発 企業の「プライベートLLM」として導入へ

» 2025年04月03日 13時53分 公開
[ITmedia]

 リコーは4月3日、米OpenAIのAIモデル「GPT-4o」と同等の日本語性能を持つLLMを開発したと発表した。複数の学習済みのAIモデルを組み合わせ、より性能の高いモデルを作る手法「モデルマージ」で開発。700億パラメータを持っており、企業の「プライベートLLM」に活用できるという。

 モデルのベースは、東京科学大学などが開発した日本語LLM「Llama-3.3-Swallow-70B-v0.4」。米Metaがユーザーの指示に従って動作するよう訓練した「Instructモデル」から、「Chat Vector」(AIモデルから指示に従う能力だけを抽出したベクトル)を抽出。リコーが開発したモデルから取り出したChat Vectorとマージし、性能を高めたという。

 性能の評価には、複雑な指示やタスクを含む日本語ベンチマーク「ELYZA-tasks-100」と、日本語の対話能力を測るベンチマーク「Japanese MT-Bench」を使用した。2つのベンチマークの平均スコアを出したところ、今回リコーが開発したLLMは、GPT-4oと同等のスコアを示したという。

ベンチマークの結果

 リコーは「高性能でありながら、省コスト・省リソースを実現した」とアピール。オンプレミスで顧客データを追加学習できるプライベートLLMとして、企業への導入に活用する方針だ。

【訂正履歴:2025年4月3日午後8時30分】記事掲載当初、「東工大」との記載がありましたが、正しくは「東京科学大学」でした。お詫びして訂正します。



Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ