リコーは4月3日、米OpenAIのAIモデル「GPT-4o」と同等の日本語性能を持つLLMを開発したと発表した。複数の学習済みのAIモデルを組み合わせ、より性能の高いモデルを作る手法「モデルマージ」で開発。700億パラメータを持っており、企業の「プライベートLLM」に活用できるという。
モデルのベースは、東京科学大学などが開発した日本語LLM「Llama-3.3-Swallow-70B-v0.4」。米Metaがユーザーの指示に従って動作するよう訓練した「Instructモデル」から、「Chat Vector」(AIモデルから指示に従う能力だけを抽出したベクトル)を抽出。リコーが開発したモデルから取り出したChat Vectorとマージし、性能を高めたという。
性能の評価には、複雑な指示やタスクを含む日本語ベンチマーク「ELYZA-tasks-100」と、日本語の対話能力を測るベンチマーク「Japanese MT-Bench」を使用した。2つのベンチマークの平均スコアを出したところ、今回リコーが開発したLLMは、GPT-4oと同等のスコアを示したという。
リコーは「高性能でありながら、省コスト・省リソースを実現した」とアピール。オンプレミスで顧客データを追加学習できるプライベートLLMとして、企業への導入に活用する方針だ。
【訂正履歴:2025年4月3日午後8時30分】記事掲載当初、「東工大」との記載がありましたが、正しくは「東京科学大学」でした。お詫びして訂正します。
リコー、モデルマージで“GPT-4レベル”の大規模言語モデル開発 プライベートLLMの開発効率化に貢献
リコー、低コスト・高速うたう新LLM 日英中対応で今秋提供
学習データの権利クリア、画像生成AI「AC写真AIラボ」登場 商用利用OK ACワークスから
OpenAI「GPT-4.5」、チューリングテストに合格 7割超が“人間と誤認” 米カリフォルニア大
江戸時代の言葉を話すAIチャット「からまる」 Sakana AIが公開 古文書の2500万文字を学習Copyright © ITmedia, Inc. All Rights Reserved.