メディア
ITmedia AI+ >

ライオン、独自LLMを内製へ 社内の“暗黙知”を学習、AWSが協力

» 2025年10月08日 16時56分 公開
[ITmedia]

 生活用品大手のライオンは10月8日、自社の研究開発データで追加学習した独自の大規模言語モデル(LLM)の開発に着手したと発表した。アマゾンウェブサービスジャパンの協力を受けながら内製する。

 自社の長年の経験から培われた知見や暗黙知をLLMに反映。過去の知見を踏まえた具体的なアドバイスや、複数の事例を統合した回答が可能であることを初期フェーズで確認しており、従来のツールと比べ、回答に含まれる情報の網羅性が大幅に向上したという。

画像 ニュースリリースより

 同社は2023年、研究ナレッジ検索ツールを導入するなどAIを活用してきたが、専門知識が前提となる高度な質問や、体系的なナレッジ整理を要する複雑な業務の質問は回答が困難だった。

 そこで4月から、AWSジャパンの「生成AI実用化推進プログラム」に参加し、クレジット付与によるコスト面での支援や技術協力を受けている。

 学習基盤では、オープンソースクラスタ管理ツール「AWS ParallelCluster」と、LLMを高速学習させるNVIDIAの研究指向フレームワーク「Megatron-LM」を組み合わせ、複数サーバ上に配置された多数のGPUを効率的に連携させる分散学習環境を構築。大量のデータを高速にGPUに送り込みながら、学習の処理を並列実行できるようにした。

 ベースモデルには、オープンソース言語モデル「Qwen 2.5-7B」を活用。学習データとして、研究報告書や製品組成情報、品質評価データなど、数十年にわたる社内知見を中心に投入した。

 今後は、学習データとして扱いにくいプレゼンテーション形式のファイルなども、構造化・クリーニングを推進。経済産業省と新エネルギー・産業技術総合開発機構(NEDO)主導する「Generative AI Accelerator Challenge」(GENIAC)で開発された国産モデルの活用など、多角的なアプローチで精度向上を図る。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ