ソフトバンクの子会社でAIの研究開発などを手掛けるSB Intuitions(東京都港区)は3月5日、小規模言語モデル(SLM)「Sarashina2.2」シリーズを公開した。パラメータ数5億、10億、30億の事前学習モデルの3種類を公開。いずれもMITライセンスで、商用利用なども可能だ。
Sarashina2.2シリーズは、Webコーパスから抽出した日本語や英語、コードを含む10兆個のトークンで学習を行った。2.2-3Bモデルについては、同社が以前公開したAIモデル「Sarashina2-7B」よりも、日本語能力や数学、コーディング面で長けた性能を持つ。
また日本語処理性能においては、中国Alibabaが開発するAIモデル「Qwen」シリーズなど同等のパラメータ数を他社モデルと比較しても、Sarashina2.2はより優れた結果を示したとしている。
いずれのAIモデルも、同社のHugging Face上のページで公開している。
“大は小を兼ねない”生成AI 注目集める「小規模言語モデル」(SLM) そのメリットとは?
楽天、AIモデル「Rakuten AI 2.0」シリーズを無料公開 大規模言語モデル&小規模言語モデルの2形態で
iPhone 14で高速動作する軽量AIモデル、Sakana AIが開発 知識蒸留の新手法「TAID」採用
話題の中華LLM「DeepSeek R1」の日本語追加学習モデル サイバーエージェントが無料公開
ソフトバンク、4600億パラメータの日本語特化LLMを公開 「日本でも大規模なAI作れると証明」Copyright © ITmedia, Inc. All Rights Reserved.