日本経済新聞社は4月24日、経済情報に特化した大規模言語モデル「NIKKEI Language Model」(NiLM、にるむ)を開発したと発表した。約40年分の日本経済新聞などの記事のみを学習したAIモデル。130億と700億パラメータの2つのモデルを開発したという。
NiLMの学習には、ネット上の公開情報は利用していない。約40年分の日本経済新聞の記事や、日経産業新聞と日経MJ、日経ヴェリタス、NIKKEI Primeなどの専門媒体、日経BPの各媒体から同社が著作権と使用権を持つ記事だけを学習に使ったとしている。
130億パラメータのモデルは、一般公開されているモデルは使わず、独自にモデルを構築。700億パラメータのモデルは、米Metaの「Llama 2」の700億パラメータモデルと、Llama 3の80億パラメータのモデルなどをベースに開発した。学習に使った日本語コーパスのトークン量は約1兆に達したという。
同社は「汎用的な大規模言語モデルには最新のデータが反映されていないことや、学習データに起因するハルシネーション(AIがもっともらしいうそをつく現象)、さまざまなメディアのデータが許諾なく使われている可能性が高いという倫理的な課題がある」と指摘している。
今回開発した大規模言語モデルを記事執筆に直接利用するかは言及していないが、社内向けAIツールの研究開発に利用していく方針。また、今後も自社のデータを使い、経済領域に特化した大規模言語モデルの開発を続けていくとしている。
Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に
イーロン・マスク氏のLLM「Grok」、1.5更新で画像認識可能に
楽天グループが大規模言語モデルを公開 Mistralベースの70億パラメータ 商用利用も可能
生成AIに“アスキーアート”入りプロンプト入力→有害コンテンツ出力 米研究者らが新手の脱獄法発見
年末年始にLLMの勉強はいかが? 東大松尾研、大規模言語モデルの講座資料を無料公開Copyright © ITmedia, Inc. All Rights Reserved.