Sakana AI スマホで動く小さくて高性能な日本語SLM「TinySwallow-1.5B」を公開
Sakana AIが日本語特化の小規模言語モデル「TinySwallow-1.5B」を公開した。独自の知識蒸留手法「TAID」を活用し、同規模の他モデルを上回る性能を発揮する。
Sakana AIは2025年1月30日、新たな知識蒸留手法「TAID」(Temporally Adaptive Interpolated Distillation)で構築した日本語小規模言語モデル「TinySwallow-1.5B」を公開した。同モデルは15億(1.5B)パラメーターという小規模ながら、同等規模の他モデルと比較して最高水準の性能を達成している。
近年、大規模言語モデル(LLM)は高度な対話やプログラミング支援など多様な用途で活用されているが、その運用には十分な計算リソースが必要となる。Sakana AIは小規模ながら高性能な言語モデル(SLM)の研究を進め、新たな知識蒸留手法TAIDを開発した。
TAIDは何がうれしいのか?
TAIDはLLMの知識をSLMへ効率的に転移させる技術で、学習の進行に応じて段階的に適切な知識を付与することで従来手法よりも効果的な知識蒸留を実現する。
TAIDの有効性を示すために開発された「TinySwallow-1.5B」は日本語特化のSLMで、APIなどを介さずにスマートフォンやPCでオフラインで動作する。同モデルはオンライン版としてWebアプリ(TinySwallow-1.5B Chat)が、ローカル環境向けがGitHub(TinySwallow ChatUI Local)に用意されている。またモデルの重みはHugging Face Hub(TinySwallow - a SakanaAI Collection)に公開されており、日本語事前学習データで継続事前学習をした「TinySwallow-1.5B」や、指示学習をした「TinySwallow-1.5B-Instruct」も提供されている。
TAIDに関する研究論文は機械学習分野のトップである表現学習国際会議(ICLR)に採択されており、技術の有効性が国際的に認められている。今後、Sakana AIはTAIDの適用範囲を広げ、さまざまな環境下での検証を進めていくとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
ニトリはAIでコンタクトセンターをどう変えたいのか 同社の顧客満足アップ戦略とは
ニトリはコムデザインのCTIサービス「CT-e1/SaaS」とレブコムの「MiiTel Phone」を導入し、コンタクトセンターの効率化と顧客満足度向上を図ると発表した。通話データの解析が可能となり、顧客サービスの質が向上する見込み。
「dotData Insight」がアップデート AIでデータクレンジングやテーブル拡張
dotData Japanがデータ分析プラットフォーム「dotData Insight 1.3」を発表した。AIによるデータクレンジングとテーブル拡張機能が強化され、データの品質向上と分析効率が向上した。
理研が次世代スーパーコンピュータ「富岳NEXT」を発表 生成AIを意識
理化学研究所は、AI活用を強化した次世代スーパーコンピュータ「富岳NEXT」の開発を開始した。科学的仮説生成の自動化や実証を高度化し、国内外の研究や産業界に向けて最高水準の計算基盤を提供することを目指す。
トランプ大統領が白紙にした“8つのAI方針”とは バイデン政権が掲げていた方向性を見る
トランプ大統領は就任初日に大統領令を発令し、バイデン前政権のAI規制を含む複数の大統領令を撤回した。バイデン政権時のAIの安全性や倫理性を確保する枠組みを構築する大統領令が取り消されている。