リコーは10月10日、GPT-5と同等の性能を持つ金融業務特化型LLMを開発したと発表した。同社が開発する700億パラメータのLLMに、有価証券報告書などから金融業特有の専門用語を学習させたもの。このLLMに対して、リーズニング性能を追加搭載したところ、特定の日本語ベンチマークにおいて米OpenAIのLLM「GPT-5」と同等の性能を記録したという。
リコーでは、米MetaのLLMをベースに、東京科学大学が日本語性能を向上させたモデル「Llama-3.3-Swallow-70B-v0.4」を採用。このモデルに対して、独自手法によるファインチューニングやモデルマージ、学習カリキュラムを組み合わせることで、700億パラメータの日本語LLMを開発。オンプレミス環境で、企業固有の情報を追加学習できるプライベートLLMとして提供している。
今回リコーでは、こうして開発したLLMを元に、金融情報に特化した金融業務特化型LLM「Llama-3.3-Ricoh-70B-20251001」を開発した。このモデルに対して、多段推論能力(CoT)を付加することで専門業務の遂行能力を強化。ベンチマーク「ELYZA-tasks-100」などを使い、日本語性能を評価したところ、GPT-5などの他社モデルと同等レベルのスコアを記録した。
リコーでは今後、製造業や医療などの業種特化モデルの開発も進めていく。
リコー、“GPT-4o並み”の日本語性能持つLLMを開発 企業の「プライベートLLM」として導入へ
リコー、プリンタや複合機の“フルタイム保守”を廃止へ 24時間・365日から縮小
日本が“AI競争”で海外に勝つには?──Sakana AIデビッド・ハーCEOの見方 「ソブリンAI」「和製LLM」はどう捉える
GPT-5は“期待外れ”だった? 「革新的ではない」「keep4o」 最新AIモデルのマーケティングの難しさ
“引っ張ると縮む”新機構「カウンタースナッピング」とは? オランダの研究者らが発表Copyright © ITmedia, Inc. All Rights Reserved.