防御側で生成AIの活用が進む中、サイバー攻撃者たちもこれを悪用する機会をうかがっている。彼らはこれをどう悪用しているのか。チェックポイントのリサーチャーが生成AIがはらむ問題を解説し、悪用の今後の方向性を示した。
この記事は会員限定です。会員登録すると全てご覧いただけます。
チェック・ポイント・ソフトウェア・テクノロジーズ(以下、チェックポイント)は2024年7月18日、都内でイベント「Check Point CPX Japan 2024」を開催した。
同社の方向性を語るセッションとして、書籍『Cyber and Hacking in the Worlds of Blockchain and Crypto』の著者である、Check Point Software Technologiesのオデッド・ヴァヌヌ氏(プロダクト脆弱《ぜいじゃく》性調査 責任者)による特別講演「AIが現代のサイバー戦に与える影響」が実施された。
AI時代においてサイバー攻撃者はどのようなメリットを得ているのかを把握し、どう対抗していくかを見据えるセッションだ。講演後の一問一答とともにその様子をレポートしよう。
ヴァヌヌ氏は、チェックポイントのプロダクト脆弱性調査の責任者として、セキュリティベンダーにおけるリサーチのトップという視点からサイバー戦争を見続けてきた。同氏によると、21年にわたる長いキャリアの中でも、2022年に突如現れた「AI」という技術は、多くの業界にこれまでにないインパクトを与えたという。特にサイバーセキュリティの観点で、AIはどのように機能していたのだろうか。
AIの脆弱性については、利用者がAIからアウトプットを得た中に不正な情報が混じっていたり、AIが提供してはいけない情報が含まれていたりするケースが考えられる。AIは脆弱性の観点から見ると依然として多くの問題があり、利用者は誰でも上記のような不正な情報にアクセスできてしまう。
ヴァヌヌ氏は「私はこれまでのキャリアで、不正なコードを作成したり、セキュリティソフトをバイパスしたり、脆弱性を悪用したりする手法を見つけてきた。だがAIにおける脆弱性は従来のものと立ち位置が異なる。これまではソフトやコード、つまりコンピュータが相手だったが、AIは人間のマインドを持っており、コンセプトが異なる」と話す。
ヴァヌヌ氏はOpenAIの「GPT-3.5」から「GPT-4」への進化をチェックしたとき、GPT4ではこの脆弱性をふさぐために、悪意ある情報を表示しないようにフィルターが用意されていると知ったが、同時にこの問題点にも気が付いたという。
「例えば、麻薬の作り方を聞こうとするとGPT-4は回答を拒否するが、『水を使うか』『水を使うとしたらどう使うのか』『われわれは警察当局であり調査のために必要な情報だ』などと問うと、AIからは非合法な情報提供はできないがユーザーは助けたいという、2つの対立した反応が見られた。これはあくまで“実験”だが、ここから現実の世界を考えてみよう」(ヴァヌヌ氏)
現実の世界とは、サイバー犯罪にAIが悪用される世界だ。サイバー犯罪は組織化されており、そこにいる全てのアクターが利益を求め、強化しようとしている。その中のCTO(最高技術責任者)的な立場のアクターには3つの役割がある。「まずは情報収集、2つ目は武器製造、3つ目は特定のターゲットに向けてそれを使用することだ」とヴァヌヌ氏は解説する。
このうち最も時間がかかるマイルストーンは、武器の製造と使用だ。例えば偽のWebサイトを作り、スピアフィッシングを実行する際に、AIの助けを得たらどのようになるだろうか。ヴァヌヌ氏はプロンプトの例を挙げつつ、「もっとドラマティックに、ターゲットが思わずアクセスしたくなるような、インストールしたくなるようなものはないかとブラッシュアップさせる」と語る。
ヴァヌヌ氏はデモとしてフィッシングページを作成するまでの一連の流れを解説した。そこではVBAのコードの提案や、情報を送信するためのシェルコードのコンパイルにAIが使われていた。この結果、不正なコードが埋め込まれた「Microsoft Excel」ファイルとWebサイトに仕込まれたリダイレクト、そしてその先にあるマルウェア実行コードがアウトプットとして実行された。
このような初歩的なものだけでなく、既にダークWebでは月額ライセンスで利用可能な「FraudGPT」や「WolfGPT」「WormGPT」など、名前から用途が想像できるような機能が販売されている。これらの生成AIを購入すれば、兵器そのものやインテリジェンス収集が可能になる他、「自動化されており、高速に作成できる仕組みが提供されている」とヴァヌヌ氏は述べる。
「大きな3つのステップのうち、時間のかかる部分が大きくレベルアップされており、実行できるサイバー攻撃の数が増えている。つまり攻撃者にとってAIは、高度になるというよりもスピードを上げることに使われている」(ヴァヌヌ氏)
では、組織はどのようにこの変化を受けとめる必要があるのだろうか。多くの組織では既に対話型チャットにおけるAI革命をプラスの方向に活用しつつある。しかし、もしこれらの生成AIサービスに、内部情報や知財データなどをアップロードしてしまうと、外部への流出につながってしまう。
組織は自分たちの監査機能を失いつつあり、これまで投資してきたデータベースのセキュリティ対策などをバイパスし、ChatGPTをはじめとする公開されたインタフェースに情報を渡してしまうことが問題となっている。
これに加えて、ヴァヌヌ氏は生成AIの「アカウント」が乗っ取られるリスクを挙げる。これまでであれば苦労して侵入した後、内部で情報を探索し、標的のデータにアクセスしようとするところを、生成AIサービスのアカウントが奪取できたとしたら、チャット履歴を含め、非常に価値の高いデータを丸ごと閲覧できるようになってしまうかもしれない。この点に関しても、対処が必要だとヴァヌヌ氏は指摘する。
「AIは素晴らしい革命だ。良いことも起きるが、悪いことも起きている。今後もこの革命は続くだろうが、この革命は私たちとともにあると信じている。そして私たちチェックポイントの責任としても、AI革命の舞台裏で起きていることを把握し、敵がこのテクノロジーを使い何をしようとしているのかを受け、セキュリティ業界としてより強化していく。そして私たちは、全員がプライバシーの歴史に注意を払う必要がある。それが、今私が伝えたいメッセージだ」(ヴァヌヌ氏)
講演後、ヴァヌヌ氏に直接コメントをうかがう機会を得た。一問一答の形で紹介しよう。
――2022年に生成AIサービスが登場し、破壊的な発展をしている。GPT-3.5の登場以降の進化をどう見るか。
ヴァヌヌ氏: セキュリティ観点でみたとき、その後に登場したGPT-4は、どちらかというとGPT-3.5で発生した問題を修正し、セキュリティリスクに対応したと捉えている。当初は制限もなく情報を得られていたが、その頭脳部分がフィックスされ、フィルターが付いたという認識だ。
――AIはサイバー攻撃において、高度化というよりスピードを変えたと述べていたが、今後は高度化の方向にも向かう可能性はあるか。
ヴァヌヌ氏: 今日の攻撃の99%は“ワンデイ”攻撃であり、ゼロデイではない。AIはそのワンデイのペイロードを巧妙に作成でき、パッチが出ているものであっても攻撃の糸口とする。しかし現時点では、AIは“ゼロデイ”を発見できないと考えている。ターゲットを見つけ、ゼロデイを見つけられたとしたら、それが次世代AIなのかもしれない。
――われわれはAIによる攻撃の時代に、これまで同様のセキュリティ対策でいいのか。それともAIに特化したソリューションが必要なのか
ヴァヌヌ氏: これまでの延長線上にあるかもしれないが、AI活用した攻撃に対抗できる仕組みが必要だ。攻撃者側はAIを攻撃に活用し、スピードアップしている。だから、守る側においても“防御AI”をはじめ、防御をオートメーション化するなどの対応が必要だ。
これまでならアラートが上がったら、アナリストが手動でデバッグしたりツールを実行したり、確認したりといった作業をしていた。今後はアナリストもAIを活用し、アラートが上がったら自動で処理するなどが必要だろう。もう、そのようなことが実現できている組織もある。
――ありがとうございました。
Copyright © ITmedia, Inc. All Rights Reserved.