ChatGPTの新機能に潜むリスク 複数の外部ストレージから機密情報の流出が可能に:セキュリティニュースアラート
ChatGPTの新機能「Connectors」を悪用し、Google DriveやMicrosoft SharePoint、GitHubなどの外部アプリケーションから機密情報を流出させる攻撃手法が見つかった。
Zenityのセキュリティ研究者は2025年8月6日(現地時間)、OpenAIの「ChatGPT」に新たに実装された「Connectors」機能を悪用し、ユーザーの外部ストレージからクリックなどの操作を伴わずに機密情報を流出させる攻撃手法について発表した。
Connectorsは「Google Drive」や「Microsoft SharePoint」「GitHub」などの外部アプリケーションとChatGPTを連携させ、ユーザー固有のデータを参照しつつ回答を生成できる機能だ。この機能によって利便性の向上が期待できるが、間接的プロンプトインジェクションによるゼロクリック型データ流出の経路となり得ると指摘されている。
ChatGPTの新機能に潜むリスク 外部ストレージから機密情報流出
攻撃の流れとして攻撃者はまず、文書内に不可視のプロンプトインジェクションを埋め込み、被害者がそれをChatGPTに読み込ませるよう仕向ける。ChatGPTがその文書を解析すると、Google Driveなど接続済みの外部サービス内を検索し、特定の情報(例:APIキー)を取得するよう誘導される。取得した情報は画像URLのパラメーターとして埋め込まれ、ChatGPTによって画像が描画される際に攻撃者の管理するサーバへ送信される。
OpenAIは画像描画前にURLの安全性を確認するクライアント側の検証機構を導入しているが、研究チームはこの制限を回避する方法を発見した。具体的に「Azure Blob Storage」に格納した画像を使用することで安全URL判定を通過し、「Azure Log Analytics」経由でリクエストパラメーター(流出データ)を収集できることを確認している。
この手法はGoogle Driveに限らず、GitHubやMicrosoft Sharepoint、「Microsoft OneDrive」などConnectorsで接続可能なあらゆる外部リソースが対象となり得る。研究チームは、攻撃成立に追加のクリック操作は不要であり、信頼できないファイルをアップロードするだけで情報が流出する可能性があるとされている。
報告では既存の対策が完全ではないこと、物語的な指示や特殊文字を使用することでAIモデルの制限を回避できる可能性があるとしている。Zenityの研究チームは今後も主要なAI製品に対し攻撃手法の調査を継続し、利用者に対しAIとのやりとりに慎重な姿勢を求めている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
8万4000通のメールを分析して判明した“高品質”なフィッシングの条件とは?
高度なフィッシングメールには人間心理の隙を巧妙に突いた文面が採用されています。本稿は8万4000通を分析して判明した“高品質”なフィッシングメールの条件と、これに対抗するための心理的アプローチを組み込んだ4つの防御策を紹介します。
「リストアしたら中身が○○?」 ランサムウェア暗号化で起きた“怖い話”
「ランサムウェア被害に遭ってもデータバックアップさえ取っていれば安心」と思っていませんか? 実はその思い込みは危険かもしれません。今回は筆者が聞いた、ランサムウェア被害におけるデータ暗号化で起きた“怖い話”を紹介しましょう。
Excelの外部リンク無効化へ Microsoftがセキュリティ強化に向けた新方針
Microsoftは2025年10月から、Excelにおいてブロック対象のファイル形式への外部リンクをデフォルトで無効化する仕様を段階的に導入する。業務フローへの影響を避けるため早期の対応が推奨されている。
今後不満続出? オンライン証券の不正アクセスへの金銭補償で「損」しないには
世間を大きく騒がせたオンライン証券会社に対する不正アクセス/不正取引被害。各社は対策に動くとともに、被害者に対する金銭補償を発表しました。ただ、その割合が問題で……。今回は補償の妥当性と個人が取るべき対策を考えていきます。