生活用品大手のライオンは10月8日、自社の研究開発データで追加学習した独自の大規模言語モデル(LLM)の開発に着手したと発表した。アマゾンウェブサービスジャパンの協力を受けながら内製する。
自社の長年の経験から培われた知見や暗黙知をLLMに反映。過去の知見を踏まえた具体的なアドバイスや、複数の事例を統合した回答が可能であることを初期フェーズで確認しており、従来のツールと比べ、回答に含まれる情報の網羅性が大幅に向上したという。
同社は2023年、研究ナレッジ検索ツールを導入するなどAIを活用してきたが、専門知識が前提となる高度な質問や、体系的なナレッジ整理を要する複雑な業務の質問は回答が困難だった。
そこで4月から、AWSジャパンの「生成AI実用化推進プログラム」に参加し、クレジット付与によるコスト面での支援や技術協力を受けている。
学習基盤では、オープンソースクラスタ管理ツール「AWS ParallelCluster」と、LLMを高速学習させるNVIDIAの研究指向フレームワーク「Megatron-LM」を組み合わせ、複数サーバ上に配置された多数のGPUを効率的に連携させる分散学習環境を構築。大量のデータを高速にGPUに送り込みながら、学習の処理を並列実行できるようにした。
ベースモデルには、オープンソース言語モデル「Qwen 2.5-7B」を活用。学習データとして、研究報告書や製品組成情報、品質評価データなど、数十年にわたる社内知見を中心に投入した。
今後は、学習データとして扱いにくいプレゼンテーション形式のファイルなども、構造化・クリーニングを推進。経済産業省と新エネルギー・産業技術総合開発機構(NEDO)主導する「Generative AI Accelerator Challenge」(GENIAC)で開発された国産モデルの活用など、多角的なアプローチで精度向上を図る。
パラメータ数は1兆超──“超巨大”なLLM「Qwen3-Max」は何がすごいのか? 中華製フラッグシップAIの現在地
経産省、楽天の生成AI開発を支援 “長期記憶”で複雑な日本語文脈に対応するLLM構築へ
AI戦国時代、日本企業はどう動く?――国産LLM&AI半導体を開発中のPFN・岡野原代表のシナリオCopyright © ITmedia, Inc. All Rights Reserved.