32Bなのに「DeepSeek R1」フルモデルと同性能? アリババがAIモデル「QwQ-32B」公開
中国Alibabaは、大規模言語モデル(LLM)「QwQ-32B」を発表した。パラメータ数が320億でありながら、中国DeepSeekのLLM「DeepSeek R1」(パラメータ数6710億)と同等の性能を達成したという。
中国Alibabaは3月6日(現地時間)、大規模言語モデル(LLM)「QwQ-32B」を発表した。パラメータ数が320億でありながら、中国DeepSeekのLLM「DeepSeek R1」(パラメータ数6710億)と同等の性能を達成したという。QwQ-32BはApache 2.0ライセンス下で、同社のHugging Face上で公開している。
Alibabaは公式Webサイトで、DeepSeek R1-6710やo1-miniなどとの性能比較表を公開。QwQ-32Bは、数学やコーディング、一般問題の解決能力で他社の主要AIモデルよりも同等かそれ以上の性能を発揮したとしている。
今回のAIモデルの開発においてAlibabaは、強化学習(最適な結果を得るためにAIを訓練させる手法)のスケーリングに注目した。初めに数学とコーディングタスクに特化した強化学習を実施した後さらに、一般問題の解決能力を上げるべく、もう1つ強化学習のフェーズを追加した。これにより、数学とコーディング能力を大幅に下げることなく、一般問題の解決能力を上げることができたという。
このことからAlibabaは「より強力な基礎モデルとスケーリングした計算リソースによる強化学習を組み合わせることで、汎用人工知能(AGI)の実現に近づけると確信している」と説明。今後は推論時間もスケーリングすることで、より高性能なAIの実現を目指す。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
中国アリババ、DeepSeekの「V3」越えうたうAIモデル「Qwen2.5-Max」公開
中国Alibabaは、大規模言語モデル「Qwen」シリーズの最新モデル「2.5-Max」を公開した。
「DeepSeekショック」とは何だったのか? 2025年、AI開発の最新事情を解説
1月27日に株式市場を襲った「DeepSeekショック」。中国のAI開発企業DeepSeekが開発した、低コストながらも高性能な生成AIモデルをきっかけに、米国の株式市場においてハイテク株が下落した。なぜこのような株価の急落が起きたのか。
DeepSeekが集める個人情報は「中華人民共和国にある安全なサーバに保存」
中国DeepSeekのサービスが急激に注目を集めている。同社のプライバシーポリシーには、収集した個人情報は中国のサーバーに保存すると明記されている。
ソフトバンクのAI開発企業、小規模言語モデルを公開 30億パラメータ以下の3種類 商用利用も可能
ソフトバンクの子会社でAIの研究開発などを手掛けるSB Intuitionsは、小規模言語モデル(SLM)「Sarashina2.2」シリーズを公開した。
AI戦国時代、日本企業はどう動く?――国産LLM&AI半導体を開発中のPFN・岡野原代表のシナリオ
オンラインイベント「ITmedia AI+ Boost」で、Preferred Networks(PFN)の代表取締役 最高研究責任者である岡野原大輔さんが基調講演を行った。ChatGPTやClaudeなどが世界をリードする中でも、国産AIの存在感を高める方策を示した。

