Preferred Networksの岡野原大輔代表取締役は2月18日、開発中の新しい大規模言語モデル「PlaMo 2 8B」(仮称)について明らかにした。同社の既存モデル「PLaMo-100B」の性能を維持しつつ、パラメータ数を約12分の1に削減したという。アイティメディアが同日から開催しているオンラインイベント「ITmedia AI Boost」で言及した。
新しく開発したPlaMo 2 8Bはパラメータ数を80億(PLaMo-100Bは1000億)まで抑えつつ、PLaMo-100Bと同等以上の性能を実現したとうたう。日本語や日本固有の知識の理解について問う「JMMLU」やコード生成能力を問う「JHumanEval」などのベンチマークで、PLaMo-100Bと同等あるいはそれ以上のスコアを記録したという。なお、まだ事後学習が済んでいないため、コーディング能力は今後上昇する可能性があるとしている。
PLaMo-100Bは同社が2024年に発表したモデル。日本語性能を評価するベンチマーク「Jaster2 0shot」で、GPT-4oやClaude 3.5 Sonnet、Llama-3 70Bを上回るスコアを記録したという。
【修正:2025年2月19日午前10時 当初、PLaMo-100Bのパラメータを1兆としていましたが、正しくは1000億でした。訂正しておわびします。】
GPT-4を超える日本語性能のLLM、PFN子会社がフルスクラッチで開発 無料トライアルを開始
PFNから金融特化LLM「PLaMo-fin-base」登場 AIエージェントに活用で金融機関の業務効率化に貢献
国産AIスタートアップ・PFNが“生成AI向けプロセッサ”独自開発、2026年提供へ 「GPUの10倍高速で省電力」
“GPT-4超え性能”の日本語特化型LLM AIスタートアップ・ELYZAが開発 国外プレイヤーとの競争も「諦めない」
1000億パラメータのLLM、AIスタートアップが公開 フルスクラッチで開発 「ハルシネーションを大幅抑止」Copyright © ITmedia, Inc. All Rights Reserved.