「生成AIで防御者は攻撃者より優位に立つ」 Google CloudのCISOが主張するその根拠は?Cybersecurity Dive

Google Cloudのフィル・ヴェナブルズ氏(CISO)は、生成AIをセキュリティに利用することで防御者は攻撃者よりも優位に立てるという。同氏は、なぜそのように主張するのか。

» 2024年04月07日 07時00分 公開
[Matt KapkoCybersecurity Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

Cybersecurity Dive

 Google Cloudのフィル・ヴェナブルズ氏は、今後3〜5年の間に、防御者は生成AI(人工知能)を使って攻撃者よりも有利な立場に立つことができ、攻撃者に大きな差をつけられると確信している。

生成AIが攻撃者より防御者に有利に働くワケ

 ヴェナブルズ氏と同僚たちは、AIが防御側のジレンマを逆転できると主張している。ヴェナブルズ氏が、『Cybersecurity Dive』に対して語ったところによると、そのジレンマとは「古くから言われるように攻撃者は一度だけ正しければ良いが、防御者は常に正しくなければならない」というものだ。なぜそれが逆転するのだろうか。

 Googleは2024年3月に、デジタルセキュリティのためのAI開発を推進する「AI Cyber Defense Initiative」を立ち上げた(注1)。同時に発表された報告書(注2)では、自律的なサイバー防御の開発やシステムの安全性の領域におけるAIの設計や構築、利用に関する研究が提案されている。

 報告書の大半は、まだ実現されていない将来を見据えた事例で構成されている。それらには、テレメトリーと分析にアクセスできるAI統合型の防御システム、組織の攻撃面を管理し修復するツール、グローバルな攻撃データから学習して攻撃者よりも包括的に脆弱(ぜいじゃく)性を発見するシステムなどが含まれている。

 AIの構造的な特性が、ヴェナブルズ氏のポジティブな見通しの根拠だ。脅威データや組織データ、セキュリティ知識によって訓練された基盤モデルを開発することで、少なくとも能力と生産性を10倍以上向上できる。

 「意義や役割を考えたとき、AIは原則として、一連のデータによって訓練され、組織独自のデータで微調整され、さらに組織のコンテキストと専門知識による調整を受けるものだ」(ヴェナブルズ氏)

 また、ヴェナブルズ氏は次のようにも述べた。

 「これこそが防御側に有利な非対称性だ。防御側は環境全体に対して完璧なアシスタントになるようにAIを微調整できるからだ。一方、攻撃者は特定の企業の環境に対してではなく、多くの企業の環境に対する汎用性を持たなければならない。ちなみに、仮に攻撃者が組織が保有する全てのデータを持っている場合、彼らは攻撃する必要すらなくなる。なぜならば、攻撃せずともすでに勝利しているためだ」

攻撃者のAI利用は、意図的に限定されている

 多くのサイバーセキュリティ企業の幹部は、生成AIが企業の防御力を高め(注3)、事業の業績を向上させると考えている。しかし、この技術が大きな利益をもたらすと誰もが確信しているわけではない。

 クラウドコンピューティングサービスプロバイダーであるFastlyのケリー・ショートリッジ氏(シニアプリンシパルエンジニア)によると、防御者は、最新のソフトウェアエンジニアリングを実践することで、システムのレジリエンスを高められ、優位性を取り戻すことが可能だという(注4)。

 ショートリッジ氏は、2023年にCybersecurity Diveに対して、次のようにも述べている。

 「私はサイバーセキュリティの分野において、生成AIは非常に優れたソリューションだと考えている。私たちは新しい流行に乗りたいと考えるが、それがどのように適用されるのかよく理解していない」

 セキュリティ研究者は、攻撃者が生成AIを使用して活動を大幅に強化し、サイバー攻撃を開始したという証拠をまだ観察していない。しかし、これまでAIが攻撃者にとって有効であると証明されていないからといって、同じ結果が将来にわたって続くわけではない」

 「今後のセキュリティ分野において、私が期待しているのは、脅威の分析と自動化された防御をこれまで以上に迅速に実現するために、AIが人間のオペレーションをサポートすることだ」(ヴェナブルズ氏)

 ヴェナブルズ氏によると、これまで攻撃者がAIを自らのツールに追加してこなかったのは、その必要がなかったからだという。攻撃者はAIを使わずに目的を達成しているのだ。

 「攻撃者は経済的な動機に基づいて合理的に活動している。従来の手法で毎日成功を収めているのであれば、別の活動を並行して行う必要はないだろう」(ヴェナブルズ氏)

 ヴェナブルズ氏によると、攻撃者は、AIを使ってより正確で巧妙なフィッシングキャンペーンを作成している。これは、完璧なユースケースだ。なぜならば、攻撃者がソーシャルエンジニアリングを使って何らかの形で不正アクセスする際に、最大の経済的な見返りが得られる場所でメッセージを大量生産できるためだ。

AIにはリスクを上回る報酬がある

 セキュリティ分野におけるAIに関するヴェナブルズ氏の予測は、パートナーでありAmazon Web Services(AWS)に在籍するクリス・ベッツ氏(最高情報セキュリティ責任者)の見通しとは対照的だ。ベッツ氏は2024年3月4日(現地時間)の週に、Cybersecurity Diveに対し、生成AIがもたらす利点が防御側にあるのか攻撃側にあるのかを判断するのは時期尚早だと語った(注5)。

 「採用や統合、微調整、組織内部での実用化には、明らかに長い道のりがあるが、中長期的に見れば、防御者側に構造的な有利性があると確信している」(ヴェナブルズ氏)

 AIを活用してセキュリティの方針を転換するには、組織内にある程度の専門知識が必要だ。特に、AIモデルをツールや内部データ、コンテキストと統合する際に必要となる。

 「多くの組織にとって、まだ解決されていない基本的な脆弱性が山ほどある」(ヴェナブルズ氏)

 ヴェナブルズ氏は「AIは、問題のある脆弱性を特定するために役立つ」と述べている。この技術は、クラウドやオンプレミスのインフラストラクチャにおける適切な構成や、ソフトウェアの適切な構築方法のガイドとしても機能する。

 「これらの全てに共通するのは、AIを単独で用いても多くのことに対応できるが、人間の活動をサポートするためにAIを活用すると、さらに多くのことに対応できるという点だ。既存の人間のスキルや生産性の増幅ためのAI活用は、非常に興味深い」(ヴェナブルズ氏)

 AIによって防御側が優位に立つ証拠として、ヴェナブルズ氏が注目しているシグナルは次の通りである。

  • セキュリティチームの生産性向上
  • 同じ人員と同じツールの活用を続ける場合の検出範囲の拡大
  • 既知の新たな脅威や脆弱性の迅速な解決

 ヴェナブルズ氏によると、AIによってこれらが実現できれば、サイバー攻撃やセキュリティインシデントの減少という指標はほぼ保証されることになる。

 ヴェナブルズ氏は、組織がAIを安全に採用する方法について幅広い懸念を抱いているが、Googleの次世代の大規模言語モデルである「Gemini 1.5」が2024年2月中旬にリリースされた直後に生成された「過度に修正された画像」のようなリスクは予見していない(注6)。

 「文字通り、私たちは非常に深い構造解析能力を使って、基礎知識としてAIに学習させた内容との関係で、データの文脈を確認しているだけなのだ。出力を微調整する際には注意が必要だが、一般的に使用される画像ジェネレーターやチャットbotのように、あらゆるプロンプトが入力されることによるリスクは存在しない」(ヴェナブルズ氏)

© Industry Dive. All rights reserved.

あなたにおすすめの記事PR