生成AIは技術的な革新であり、多くの企業が有効に活用する方法を模索している。セキュリティにおいてもそれは同様だ。攻撃・防御側それぞれでどのような使い方が考えられるか。
この記事は会員限定です。会員登録すると全てご覧いただけます。
国家安全保障局(以下、NSA)のサイバーセキュリティディレクターであるロブ・ジョイス氏を含む多くのセキュリティ専門家の間で、特に「ChatGPT」のような生成AI(人工知能)ツールが話題となっている。
ジョイス氏は、米国サンフランシスコで開催されたセキュリティカンファレンス「RSA Conference 2023」の中で、「RSA Conferenceの会場では、AIや機械学習の話を聞かずにはいられない」と述べた。
ジョイス氏は「生成AIは技術的な革新だ。まだ実現したとは言えないが、これは本当にゲームを変えるような技術の出現だ」と話す。
セキュリティ専門家は、AIや大規模言語モデル(LLM)がより危険で高度な攻撃を助長することに懸念を抱いている(注1)。ジョイス氏によれば、そのようなことはまだ起きていないが、1年以内に起きる恐れがあるという。
NSAは防御側と攻撃側の進展を追跡し、ChatGPTや他の生成AIツールが勢いを増す中で3つの領域に焦点を当てている。以下は、彼らが注目している内容だ。
攻撃者が最終的に生成AIをどのように活用し、何をするかは依然として最重要課題だが、過度に心配する必要はない。「AIが生み出す魔法のような技術力が、あらゆるものを利用できるとは考えていない」とジョイス氏は述べる。
ジョイス氏によると、国家や犯罪組織に関連する攻撃者はChatGPTをワークフローに取り入れて実験を始めたばかりだという。生成AIは最終的には攻撃者のサイクルや侵入後の滞留時間を短縮する恐れがあり、すでにより効果的なフィッシング攻撃を可能にしつつある。
「AIは攻撃者によるコードの書き換え、署名や属性の変更に役立ち、独自の見た目や特徴を持たせられ、近い将来には防御者に課題を課すことになるはずだ。1年後にはこの技術が攻撃のための武器として使われ、成功したポイントについて多くの事例が出てくるだろう」(ジョイス氏)
ジョイス氏とNSAの同僚たちは、生成AI進展の最前線において、攻撃者がどのようにユーザーのAIに対する信頼を損なったり、AIの適切な運用を害したりする恐れがあるか慎重に追跡している。これによってAIの利益が無効化される恐れもある。
ジョイス氏は「特定のモデルの存在を人々が理解すると、それを操作しようとする人たちも現れるだろう。生成AIや他のモデルの利用を始めるに当たり、私たちは信頼と保証を得るためにどうすべきだろうか」と疑問を投げかけた。
NSAは、防御側がMLを活用して優位性を取り戻す方法についても研究している(注2)。
「MLを含めたAIは、大量のログをスキャンしたり、パターンを抽出したりして、既知の脆弱(ぜいじゃく)性やその他の要素をデータストリームに関連付ける能力を持ち、大規模な作業を効率的に行う上で実に有望な手段を示している」とジョイス氏は述べている。
生成AIは、大量のデータに機械的な視点を与え、防御者が活動に優先順位を付けるときに特に素晴らしい効果を発揮する。「これこそ防御を加速させる手段になる。私たち防衛者をより優れたものにするための大きな手段であり、その一部の出現をあなたは確認するだろう」と同氏は述べた。
(注1)Threat actors can use ChatGPT to sharpen cyberthreats, but no need to panic yet(Cybersecurity Dive)
(注2)ChatGPT prompts experts to consider AI’s mark on cybersecurity(Cybersecurity Dive)
© Industry Dive. All rights reserved.