メディア
ITmedia AI+ >

ソフトバンクのAI開発企業、小規模言語モデルを公開 30億パラメータ以下の3種類 商用利用も可能

» 2025年03月05日 13時57分 公開
[松浦立樹ITmedia]

 ソフトバンクの子会社でAIの研究開発などを手掛けるSB Intuitions(東京都港区)は3月5日、小規模言語モデル(SLM)「Sarashina2.2」シリーズを公開した。パラメータ数5億、10億、30億の事前学習モデルの3種類を公開。いずれもMITライセンスで、商用利用なども可能だ。

SB Intuitions、小規模言語モデル「Sarashina2.2」シリーズを公開

 Sarashina2.2シリーズは、Webコーパスから抽出した日本語や英語、コードを含む10兆個のトークンで学習を行った。2.2-3Bモデルについては、同社が以前公開したAIモデル「Sarashina2-7B」よりも、日本語能力や数学、コーディング面で長けた性能を持つ。

 また日本語処理性能においては、中国Alibabaが開発するAIモデル「Qwen」シリーズなど同等のパラメータ数を他社モデルと比較しても、Sarashina2.2はより優れた結果を示したとしている。

他社モデルとの日本語処理性能の比較

 いずれのAIモデルも、同社のHugging Face上のページで公開している。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ