中国Alibabaは3月6日(現地時間)、大規模言語モデル(LLM)「QwQ-32B」を発表した。パラメータ数が320億でありながら、中国DeepSeekのLLM「DeepSeek R1」(パラメータ数6710億)と同等の性能を達成したという。QwQ-32BはApache 2.0ライセンス下で、同社のHugging Face上で公開している。
Alibabaは公式Webサイトで、DeepSeek R1-6710やo1-miniなどとの性能比較表を公開。QwQ-32Bは、数学やコーディング、一般問題の解決能力で他社の主要AIモデルよりも同等かそれ以上の性能を発揮したとしている。
今回のAIモデルの開発においてAlibabaは、強化学習(最適な結果を得るためにAIを訓練させる手法)のスケーリングに注目した。初めに数学とコーディングタスクに特化した強化学習を実施した後さらに、一般問題の解決能力を上げるべく、もう1つ強化学習のフェーズを追加した。これにより、数学とコーディング能力を大幅に下げることなく、一般問題の解決能力を上げることができたという。
このことからAlibabaは「より強力な基礎モデルとスケーリングした計算リソースによる強化学習を組み合わせることで、汎用人工知能(AGI)の実現に近づけると確信している」と説明。今後は推論時間もスケーリングすることで、より高性能なAIの実現を目指す。
中国アリババ、DeepSeekの「V3」越えうたうAIモデル「Qwen2.5-Max」公開
「DeepSeekショック」とは何だったのか? 2025年、AI開発の最新事情を解説
DeepSeekが集める個人情報は「中華人民共和国にある安全なサーバに保存」
ソフトバンクのAI開発企業、小規模言語モデルを公開 30億パラメータ以下の3種類 商用利用も可能
AI戦国時代、日本企業はどう動く?――国産LLM&AI半導体を開発中のPFN・岡野原代表のシナリオCopyright © ITmedia, Inc. All Rights Reserved.