メディア
ITmedia AI+ >

32Bなのに「DeepSeek R1」フルモデルと同性能? アリババがAIモデル「QwQ-32B」公開

» 2025年03月06日 13時19分 公開
[松浦立樹ITmedia]

 中国Alibabaは3月6日(現地時間)、大規模言語モデル(LLM)「QwQ-32B」を発表した。パラメータ数が320億でありながら、中国DeepSeekのLLM「DeepSeek R1」(パラメータ数6710億)と同等の性能を達成したという。QwQ-32BはApache 2.0ライセンス下で、同社のHugging Face上で公開している。

アリババがAIモデル「QwQ-32B」公開

 Alibabaは公式Webサイトで、DeepSeek R1-6710やo1-miniなどとの性能比較表を公開。QwQ-32Bは、数学やコーディング、一般問題の解決能力で他社の主要AIモデルよりも同等かそれ以上の性能を発揮したとしている。

他LLMとの性能比較表

 今回のAIモデルの開発においてAlibabaは、強化学習(最適な結果を得るためにAIを訓練させる手法)のスケーリングに注目した。初めに数学とコーディングタスクに特化した強化学習を実施した後さらに、一般問題の解決能力を上げるべく、もう1つ強化学習のフェーズを追加した。これにより、数学とコーディング能力を大幅に下げることなく、一般問題の解決能力を上げることができたという。

 このことからAlibabaは「より強力な基礎モデルとスケーリングした計算リソースによる強化学習を組み合わせることで、汎用人工知能(AGI)の実現に近づけると確信している」と説明。今後は推論時間もスケーリングすることで、より高性能なAIの実現を目指す。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ