企業向け「Microsoft 365 Copilot」、DLP設定無視で機密メール内容を要約 修正プログラム展開中
Microsoftは、企業向け有償サービス「Microsoft 365 Copilot」の「Copilot Chat」がDLPポリシーや機密ラベルを回避し、顧客の機密メールを不適切に要約していた問題を認めた。送信済みや下書きフォルダの機密メールがインデックス化されたことが原因。1月下旬から発生し、現在は修正プログラムを展開中だが、詳細な影響規模や監査ログは公表されていない。
米Microsoftは、Copilotが数週間にわたって顧客の機密メールを要約してきたことを認めた。米Bleeping Computerが2月18日(現地時間)に報じた。この問題はMicrosoft内で「CW1226324」として追跡されている。企業が機密情報を保護するために設定しているデータ損失防止(DLP)ポリシーや機密ラベルをAIが回避してしまう不具合という。
Microsoftのアドバイザリによると、原因は「コードの不具合(バグ)」によるものという。自動処理から除外するよう「機密」ラベルが明示的に設定されているメールにもかかわらず、ユーザーの「送信済みアイテム」および「下書き」フォルダに保存されている機密メールがCopilotによって不適切にインデックス化され、要約の対象となっていた。
この異常な挙動は1月21日頃に最初に検出され、Microsoftは2月上旬からサーバ側での修正プログラムの展開を開始した。同社は現在も修正の展開状況を監視しており、影響を受けた一部の顧客に対して修正の有効性を確認するための連絡を行っている。なお、無料版や個人向けのCopilotアカウントはこの問題の影響を受けていないという。
現段階ではMicrosoftは影響を受けた顧客の総数を公表しておらず、詳細な監査ログも提供していない。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
LLMに膨大な量の問題を解かせる→混乱し有害な内容をポロポロ解答 新たなジェイルブレイク攻撃、国際チームが提案
英オックスフォード大学などに所属する国際研究チームは、有害な指示の前に無害な長い推論を付加することで、AIの安全機構を巧妙に回避するジェイルブレイク攻撃を提案した研究報告を発表した。
Anthropic、LLMはわずか250件の悪意あるデータで「汚染」可能という研究結果
Anthropicは、LLMのデータポイズニングに関する研究結果を発表した。モデルの規模に関わらず、わずか250件の悪意ある文書で「バックドア」を仕込めることが判明したとしている。攻撃に必要な文書数が従来想定より遥かに少なく、脅威の深刻さを示唆している。
「AIで社員の声まね→認証突破」「機密情報をAIに入力」――生成AI時代のリスク、対抗方法は
初のゼロクリックAI脆弱性「EchoLeak」、Microsoftの「Copilot」の脆弱性で(修正済み)
セキュリティ企業のAim Labsが、「Microsoft 365 Copilot」に初のゼロクリックAI脆弱性「EchoLeak」を発見したと発表した。ユーザー操作なしに悪意あるメール経由で機密情報が流出する可能性があった。この脆弱性は「LLMスコープ違反」と名付けられ、Microsoftにより修正済みだ。
