サイバーエージェント、DeepSeek(蒸留モデル)の日本語チューニングモデルを公開 何がうれしい?
サイバーエージェントは2025年1月27日に、「DeepSeek-R1-Distill-Qwen-32B-Japanese」を公開した。このモデルはDeepSeekの「DeepSeek-R1-Distill-Qwen-14B/32B」をベースに日本語に対応した。
サイバーエージェントは2025年1月27日、AIモデル「DeepSeek-R1-Distill-Qwen-32B-Japanese」を無料公開した。このモデルは中国のAIスタートアップDeepSeekが開発した「DeepSeek-R1-Distill-Qwen-14B/32B」をベースに、日本語に対応させたもので、MITライセンスが適用されている。
DeepSeek-R1はDeepSeekが開発した大規模言語モデル(LLM)の一つ。同モデルの前段階にあたるDeepSeek-R1-Zeroはスーパーバイズドファインチューニング(SFT)を行わずに大規模な強化学習(RL)のみを用いて開発されており、自己検証やリフレクション、複雑な問題を解決するための長い推論チェーン(CoT)を生成する能力を発揮している。
しかし、DeepSeek-R1-Zeroは繰り返しの発生や読みやすさの欠如、言語の混在などの課題を抱えていた。これらの課題を解決するためDeepSeek-R1は新たなデータや条件でモデルを初期化して再学習を行うコールドスタート手法を採用し、推論性能をさらに向上させている。結果としてDeepSeek-R1は数学、コード、推論タスクにおいてOpenAI-o1と同等の性能を実現している。
日本向けチューニングしたDeepSeekは何がうれしいのか
DeepSeek-R1が注目される理由の一つは競合するOpenAI-o1に匹敵する性能を持つモデルが一般公開されている点にある。この透明性は研究コミュニティーにとって大きな意味を持ち、特にモデルの改善や新たな応用可能性を広げることが期待される。評価においてはDeepSeek-R1のディスティル版(小型化モデル)は、「AIME」や「Codeforces」などのテストで高いパフォーマンスを示しており、OpenAIの「o1-mini」を上回る成績を収めたことが報告されている。特に「DeepSeek-R1-Distill-Qwen-32B」ではCodeforcesでの評価値は1691を記録し、同分野の最先端モデルの一つとして位置付けられている。
今回公開された「DeepSeek-R1-Distill-Qwen-32B-Japanese」は、DeepSeekが提供する英語版モデルを日本語に最適化したものであり、日本語対応版モデルが公開されたことで日本市場のニーズに即したAIサービスや研究の発展が期待されている。一方で外国発の技術を基にしていることによるセキュリティリスクにも配慮しつつ、透明性を確保した運用が求められる。企業や研究機関は導入に際してデータの取り扱いやバックドアのリスクなどへの慎重な対応が必要とされる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「dotData Insight」がアップデート AIでデータクレンジングやテーブル拡張
dotData Japanがデータ分析プラットフォーム「dotData Insight 1.3」を発表した。AIによるデータクレンジングとテーブル拡張機能が強化され、データの品質向上と分析効率が向上した。
理研が次世代スーパーコンピュータ「富岳NEXT」を発表 生成AIを意識
理化学研究所は、AI活用を強化した次世代スーパーコンピュータ「富岳NEXT」の開発を開始した。科学的仮説生成の自動化や実証を高度化し、国内外の研究や産業界に向けて最高水準の計算基盤を提供することを目指す。
トランプ大統領が白紙にした“8つのAI方針”とは バイデン政権が掲げていた方向性を見る
トランプ大統領は就任初日に大統領令を発令し、バイデン前政権のAI規制を含む複数の大統領令を撤回した。バイデン政権時のAIの安全性や倫理性を確保する枠組みを構築する大統領令が取り消されている。
ドコモ、1億人規模の会員データをプロファイリングデータにして提供 アウディ事例では来店率が125%に
NTTドコモが、保有する1億規模の会員基盤データから作ったマーケティング用プロファイリングデータの提供を開始した。このデータはドコモ独自のAIエンジン「docomo Sense」を活用し、さまざまな顧客セグメントに分類されたもので、広告主や広告代理店に向けて順次提供される。