NECは7月6日、独自の日本語大規模言語モデル(LLM)を開発したと発表した。パラメータ数は130億で、クラウド/オンプレミス環境での運用が可能。性能面でも、世界トップクラスの日本語処理能力を実現しているという。
日本語言語理解の標準的なベンチマークとして知られる「JGLUE」で性能を評価したところ、知識量で81.1%、文書読解で84.3%のスコアを記録。NECは「これは他LLMと比較しても、世界トップレベルの性能」と説明する。
一般的に、高い性能を持つLLMほど推論にも多数のGPUが必要になるが、NECのLLMはGPU1枚搭載の標準的なサーバでも動作できる。このため、LLMを組み込んだアプリの動作が円滑になり、電力消費やサーバコストも抑えられるという。「特定の業務に特化させたLLMを短期間で容易に構築でき、オンプレミス環境でも動作可能。秘匿性の高い業務でも安心」(NEC)
LLMのパラメータ数を増やすと、推論速度が低下しモデル運用に必要なGPUの数と消費電力が増える傾向にある。そのため、同じ性能のLLMならより少ないパラメータ数のものが望まれる。NECはGPU1枚で動作する程度に抑えた上で、多量のデータと膨大な計算時間をかけて、今回のLLMを開発した。
NECは3月から運用しているAI研究用のスーパーコンピュータを1カ月稼働させてLLMを構築。社内ではすでに文書作成やソースコード作成業務などの効率化に応用しているという。今後は顧客のクローズドデータを使った個社向けLLMの開発も進める予定。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR