Anthropicは国内監視と完全自律兵器を例外とする立場を維持し、米国防総省との交渉が決裂した。一方、OpenAIは合意に至ったと言うが、それはなぜか。
この記事は会員限定です。会員登録すると全てご覧いただけます。
AnthropicおよびOpenAIは、米国防総省(別名:戦争省)とのAI導入を巡る協議で対照的な結果を迎えた。Anthropicは同省との契約交渉が決裂し、サプライチェーンの懸念対象への指定が指示される事態となったが、OpenAIは機密環境での先端AI配備で合意に達した。両社が同省に提案した内容は似通っているようにみえるが、OpenAIは「Anthropicとの当初の契約を含む以前の契約よりも、より優れた保証とより責任ある安全策を(OpenAIが)提供している」ため合意できたと強調している。
Anthropicは2026年2月26日および27日(現地時間、以下同)の声明で、AIを民主主義防衛に活用する立場を強調しつつ、以下2つのユースケースにおいてはAIを軍事作戦に利用すべきではないとの見方を示した。
一つは米国国民への大規模な国内監視、もう一つは完全自律型兵器への利用だ。同社は、現行のモデルは完全自律兵器に必要な信頼性を満たさないとし、国内監視は基本的権利を侵害すると主張した。米国防総省が「あらゆる合法利用」に同意し、該当分野のセーフガード解除を求めたため、協議は行き詰まったという。Anthropic側は信頼性向上のための共同研究を提案したが、同省は受け入れなかった。
また同省は交渉の中で、Anthropicをサプライチェーンのリスクに指定する可能性や国防生産法の発動に言及したとされる。Anthropicはこれを前例のない措置と位置付け、法的に争う構えを示した。同社は既に機密ネットワークや国立研究所にモデルを展開してきた実績を挙げ、軍や情報機関の任務を支えてきたと強調する。仮に契約終了となる場合も「進行中の軍事計画、作戦、その他の重要な任務に支障をきたすことなく、他のプロバイダーへの円滑な移行が実現するよう尽力する」とした。
他方でOpenAIは同年2月28日、米国防総省との合意を公表した。合意は機密環境での先端AI配備を可能にするが、3つの禁止線を掲げる。米国民への大規模国内監視への不使用、自律兵器の指揮への不使用、社会的信用制度のような高リスク自動意思決定への不使用だ。OpenAIは、従来の契約よりも強固な統制を備えると説明した。
具体策として、配備はクラウド限定とし、エッジ環境には展開しない。これにより、エッジ配備を前提とする完全自律兵器への転用を構造的に不可能にしたとする。加えて、安全スタックの運用権限を保持し、分類器の更新や検証を継続できる設計とした。機密資格を持つ同社エンジニアや安全研究者が運用に関与し、契約条項で既存法令や同省の指令を明示的に参照することで、将来の法令変更があっても現行基準に整合する利用に限定する枠組みも盛り込んだ。
OpenAIは「Anthropicは決裂したのに、なぜOpenAIは合意できたのか」との問いに対し、クラウド限定配備や同社の承認を受けた担当者への情報提供を挙げた。
両社とも国内監視と完全自律兵器に否定的な立場を掲げるが、分岐点は「どのような枠組みで禁止線を維持するか」にあった。Anthropicは該当用途の除外を明確に求め、米国防総省の包括的合法利用条項と整合しなかったとされる。OpenAIは「いかなる合法的な利用」を認める包括条項を契約に含みつつも、クラウド限定配備や安全スタックの保持、既存法令の明示的な参照という多層的な防御策を講じることで、実質的な禁止線を維持したと主張している。同社は自社の技術的・契約的統制が禁止線の履行を確実にしたと説明するが、Anthropicとの成否を分けた直接の理由は依然として不透明なままだ。
今後、Anthropicのサプライチェーンリスク指定の正式決定や法廷での争いが現実化すれば、政府とAI企業の関係、国家安全保障分野におけるAI統制の在り方に広範な影響を与える見通しだ。OpenAIは他社にも同条件の提供を求め、対立の緩和を図る姿勢を示している。
結局、M365 Copilotって元取れるの? グループ9000人に導入した住友商事に聞いた
「2026年に取りたいIT資格」1位は“あのベンダー資格” 読者調査で読み解くトレンド
「コーディングはAI任せ」でエンジニアは何をする? AWSが示す、開発の新たな“主戦場”
“AIエージェントの次”のトレンドは何か Gartnerが描く未来志向型インフラのハイプ・サイクルCopyright © ITmedia, Inc. All Rights Reserved.