米Microsoftは、Copilotが数週間にわたって顧客の機密メールを要約してきたことを認めた。米Bleeping Computerが2月18日(現地時間)に報じた。この問題はMicrosoft内で「CW1226324」として追跡されている。企業が機密情報を保護するために設定しているデータ損失防止(DLP)ポリシーや機密ラベルをAIが回避してしまう不具合という。
Microsoftのアドバイザリによると、原因は「コードの不具合(バグ)」によるものという。自動処理から除外するよう「機密」ラベルが明示的に設定されているメールにもかかわらず、ユーザーの「送信済みアイテム」および「下書き」フォルダに保存されている機密メールがCopilotによって不適切にインデックス化され、要約の対象となっていた。
この異常な挙動は1月21日頃に最初に検出され、Microsoftは2月上旬からサーバ側での修正プログラムの展開を開始した。同社は現在も修正の展開状況を監視しており、影響を受けた一部の顧客に対して修正の有効性を確認するための連絡を行っている。なお、無料版や個人向けのCopilotアカウントはこの問題の影響を受けていないという。
現段階ではMicrosoftは影響を受けた顧客の総数を公表しておらず、詳細な監査ログも提供していない。
LLMに膨大な量の問題を解かせる→混乱し有害な内容をポロポロ解答 新たなジェイルブレイク攻撃、国際チームが提案
Anthropic、LLMはわずか250件の悪意あるデータで「汚染」可能という研究結果
「AIで社員の声まね→認証突破」「機密情報をAIに入力」――生成AI時代のリスク、対抗方法は
初のゼロクリックAI脆弱性「EchoLeak」、Microsoftの「Copilot」の脆弱性で(修正済み)Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR