攻撃者たちはAI特有の攻撃ベクトルを駆使している NSAが推奨する対抗策CFO Dive

機密データや知的財産を狙うサイバー攻撃者は、AI特有の攻撃ベクトルを駆使する可能性があると、NSAは警告している。

» 2024年05月20日 07時00分 公開
[Alexei AlexisCFO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CFO Dive

 悪意のあるサイバー攻撃者にとって、AIツールの普及が追い風となっている可能性があると、米国家安全保障局(NSA)は最近の報告書で警告している(注1)。

AI特有の攻撃ベクトルを駆使する攻撃者たち 対抗策はあるか?

 同報告書によると、攻撃者は機密データや知的財産を盗み出そうと組織の生成AIを乗っ取る恐れがある。そのためNSAはヒューマンエラーのリスクを最小化するセキュリティを意識した文化を促進することや、脆弱(ぜいじゃく)性回避のために組織の生成AIが十分強化されているかどうかを確認することなど、さまざまな防御策を推奨している。

 「AIは今までにない利点になる可能性も、攻撃の隙を与える可能性もある」と、NSAのデイブ・ルーバー氏(サイバーセキュリティディレクター)はプレスリリースで述べている(注2)。

 この報告書は、Microsoftが支援するOpenAIの生成AIツール「ChatGPT」の悪用に対する懸念が高まる中で発表された。

 OpenAIは2024年2月にブログ投稿で、同社の大規模言語モデル(LLM)をハッキングに悪用しようとしていた国家関連の脅威グループの5つのアカウントを停止したと述べた(注3)。同社はMicrosoftの脅威リサーチャーと協力しながら対応した。

 「サイバー犯罪グループや国家関連の脅威攻撃者、その他の敵対者は、彼らの活動による利益と、回避すべきセキュリティ制御を理解するために、新たに現れるさまざまな生成AIツールを探求し、テストしている」とMicrosoftは別のブログ投稿で述べている(注4)。

 「防御側ではセキュリティ制御を強化して攻撃を防ぎ、悪意のある活動を予測して阻止できるよう徹底した監視を実行する必要がある」(Microsoft)

 ルーバー氏は「Cybersecurity Dive」の以前の報告で、OpenAIとMicrosoftが明示した脅威活動は、国家関連のグループや犯罪グループが攻撃能力を強化するために生成AIを急速に展開する前兆にすぎないと述べている(注5)。

 「生成AIを標的とする攻撃者は、従来の情報技術システムに対して使用される標準的な手法だけでなく、AI特有の攻撃ベクトルを使用する可能性がある。生成AIの安全性を確保するには、リスクを特定し、適切な緩和策を実施し、問題がないかどうかを監視するという継続的なプロセスが必要だ」(NSA)

 NSAが示す防御策は国家安全保障を目的としているが、「管理された環境にAI機能を導入する全ての人、特に高リスク・高価値の環境にある人にとっても有用だ」と述べている。

 この報告書は、米国土安全保障省サイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)や英国の国家サイバーセキュリティセンター、カナダのサイバーセキュリティセンターなど、世界中の政府機関と協力して作成された。

(注1)Deploying AI Systems Securely(U.S. Department of Defense)
(注2)NSA Publishes Guidance for Strengthening AI System Security(National Security Agency/Central Security Service)
(注3)Disrupting malicious uses of AI by state-affiliated threat actors(OpenAI)
(注4)Staying ahead of threat actors in the age of AI(Microsoft)
(注5)OpenAI, Microsoft warn of state-linked actors’ AI use(Cybersecurity Dive)

© Industry Dive. All rights reserved.

あなたにおすすめの記事PR