検索
速報

Anthropic、DeepSeekなど中国AI企業3社による「大規模な蒸留攻撃」を報告 国家安全保障リスクを警告

Anthropicは、DeepSeekら中国AI企業3社が「Claude」の能力を不正に抽出する「蒸留攻撃」を大規模に実施したと発表した。3社は1600万回以上の不正なやり取りを通じて、推論能力や安全な応答の仕組みを自社モデルに流用した疑いがある。Anthropicは、国家安全保障上のリスクを警告し、業界全体に協調対応を呼びかけている。

Share
Tweet
LINE
Hatena

 米Anthropicは2月23日(現地時間)、中国のAI企業3社(DeepSeek、Moonshot AI、MiniMax)が「Claude」の高度な能力を不正に抽出して自社のモデルを向上させる「蒸留(distillation)攻撃」を大規模に実施していると発表した。3社はAnthropicの利用規約や地域的なアクセス制限に違反し、約2万4000の不正アカウントを通じて1600万回以上のやり取りを行っていたという。

 china

 蒸留とは、高性能なモデルの出力結果を利用して、より低性能なモデルを訓練する手法。悪用すれば、本来なら自社開発にかかる時間とコストを大幅にカットして高性能なAIを不正に構築できる。

 アクセス制限地域にある中国3社は商用のプロキシサービスを利用して制限を回避。「ハイドラクラスター」(多頭の蛇になぞらえ、次々とアカウントを切り替える手法)と呼ばれる巨大な不正アカウントのネットワークを構築し、モデルの特定の能力を抽出するために設計されたプロンプトを大量かつ反復的に送信していた。

 DeepSeekは15万回以上のやり取りを行い、推論能力の抽出や強化学習用のデータ生成のほか、検閲を回避できる安全な応答(民主化運動や権威主義体制に関する質問など)の生成を標的にしていた。Moonshot AIは340万回以上、MiniMaxは1300万回以上のやり取りを行っていた。

 Anthropicは、不正に蒸留されたモデルは安全策がない可能性が高く、生物兵器の開発や悪意あるサイバー攻撃などに使われる国家安全保障上のリスクを生むと警告する。また、こうした攻撃は、米国の技術的優位性を維持するために設けられているAI半導体などの「輸出管理体制」を根底から揺るがすものだと指摘している。

 Anthropicは、APIトラフィックから攻撃パターンや推論データの抽出プロセスを識別する分類システムを構築するなどの防衛策に多額の投資を行っているが、業界全体や政策立案者との協調的な対応を呼びかけている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る