中国のAI企業DeepSeekの最新のAIモデル「DeepSeek R1」には深刻な脆弱性があると、セキュリティ企業のKELAが指摘した。同モデルはChatGPTと類似の性能を持つ一方でセキュリティ面では劣っているという。
この記事は会員限定です。会員登録すると全てご覧いただけます。
中国のAI企業DeepSeekは2025年1月28日(現地時間)、大規模なサイバー攻撃を受けたことを発表した。これによってサービス継続のために生成AIチャットbot「DeepSeek」の新規登録を一時的に制限しているが、既存のユーザーは通常通りログインが可能であるとされている。なお、同社は状況の収束に向けた対応を進めている。
このような状況で、サイバーセキュリティ企業のKELAは、DeepSeekの最新AIモデル「DeepSeek R1」に深刻な脆弱(ぜいじゃく)性が存在すると警告を発した。同モデルは数学やプログラミング、論理的推論といった高度な問題解決能力を備え、AI業界で大きな注目を集めている。しかし同時にその脆弱性についても指摘されている。
KELAによると、DeepSeek R1は「ChatGPT」と類似した機能を持つが、セキュリティ面では劣ると指摘している。KELAのAIレッドチームは同モデルにおいて複数の方法でジェイルブレーク(脱獄)に成功したことを報告しており、ランサムウェアの開発支援や偽情報の生成、毒物や爆発物の作成手順の提供といった悪意あるコンテンツを出力可能であると説明している。
特に「Evil Jailbreak」と呼ばれる攻撃手法を適用することで倫理的制約や安全対策を回避し、違法行為に関する詳細な情報を得られたという。この手法は「ChatGPT 4」などでは対策済みだが、DeepSeek R1では依然として有効であることが確認されている。
また、DeepSeek R1がOpenAIの従業員に関する情報を捏造(ねつぞう)し、プライバシーと機密性を侵害していることも明らかにしている。同モデルにOpenAIの従業員の個人情報を出力するよう指示したところ、虚偽の個人情報(メールアドレス、電話番号、給与など)を生成できたという。
ChatGPTに同様の指示した場合、プライバシー規制に違反することを認識し、このような質問への回答を拒否している。DeepSeek R1の出力は信頼性に欠けており、利用者がその情報をうのみにすることは極めて危険であると警告されている。
企業や組織が生成AI技術を導入する際は性能のみを重視するのではなく、セキュリティやプライバシー対策を慎重に評価することが求められている。DeepSeekのような中国発のAIモデルは、データの取り扱いに関する規制が異なり、政府による監視やデータ提供義務が課される可能性もある。生成AIを安全に運用するためには採用前の厳格なテストや運用中の継続的な監視、適切なセキュリティ対策を実施することが推奨されている。
7-Zipに深刻な脆弱性 悪用でWindowsのセキュリティ機能「MoTW」を回避可能
「DNSよく分からん勢」に送る サブドメイン乗っ取り事案から考えるASMの本質
Googleの認証システムに重大な欠陥 数百万のユーザーに影響する可能性
5ページだけでも読んで 無料でセキュリティの要点を学べる資料を紹介Copyright © ITmedia, Inc. All Rights Reserved.