セキュリティにおけるAIの役割を考える 懸念されるリスクとは?Cybersecurity Dive

セキュリティ専門家にとってAIは心強い味方だ。これを使いこなすことで反復作業を自動化し、他のスキルを磨く時間を得られる。ただし、AIを活用する上では注意すべきこともある。

» 2023年08月06日 07時00分 公開
[Sue PorembaCybersecurity Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

Cybersecurity Dive

 AI(人工知能)は変曲点への到達を迎えている。長年にわたり、AIは多くの技術やイノベーションに役立ってきたが、エンジニアやコンピュータ科学者によって制御されていた。機械駆動のツールを使って単調で反復的なタスクをAIに処理させることで、サイバーセキュリティシステムの改善が可能となった。その後、OpenAIの「ChatGPT」などの生成AIサービスが登場した。

AIが持つ不確実な側面とは何か?

 AIは、善人も悪人も簡単に利用できる時代になった。AI技術を研究、開発する企業Google DeepMindのCISO(最高情報セキュリティ責任者)であるヴィジャイ・ボリーナ氏によると、AI言語モデルの採用は進歩を目の当たりにする興奮をもたらしたが、同時にその技術の限界も浮き彫りになったという。

 ボリーナ氏は2023年4月にサンフランシスコで開催された「RSA Conference 2023」で、「私たちは分布バイアスやAIの幻覚のようなものを見ている」と聴衆に語った。これによって組織はAIの倫理基準と向き合わざるを得なくなった。また、信頼できるAIの欠如による新たなリスクも生まれた。

 組織は生成AIに関する倫理についてより多くの知見を得ていくはずだが、この技術が顧客とのやりとりやビジネス運営、セキュリティなどのあらゆる分野にどのような影響を及ぼすかは、依然として多くの不確実性がある。

 AIが意図的または偶発的に誤った情報を共有している場合、それが自動的にセキュリティの問題になるという誤解があるが、それは誤りだ。

 Bias Buccaneersの共同設立者であるルーマン・チョウダリ氏は「倫理とセキュリティは同じではない」と話す。

 「倫理とセキュリティには、明確な違いが1つある。サイバーセキュリティの大半は悪意ある攻撃者に対応するものだが、無責任なAIの大半は必ずしも悪意を必要とせず、予期せぬ結果や意図せぬ悪い事柄を学習して構築される」(チョウダリ氏)

 偽情報はその一例だ。攻撃者が悪意のある偽情報を作り出すとセキュリティの問題が生じるが、もし人々がその情報を信じて共有する場合、それは倫理的な問題に発展する。

 チョウダリ氏は「両方の問題に対処しなければならない」と述べた。倫理的なアプローチは、何がどのように使用されるかに焦点を当て、セキュリティのアプローチは潜在的な問題の検知を意図としている。

サイバー演習でAIが果たす役割

 組織はレッドチームとブルーチームを使い、ネットワークインフラストラクチャの弱点を見つける取り組みを定期的に実施している。シミュレーションにおけるレッドチームの役割はサイバー攻撃だ。これに対して、ブルーチームは攻撃から組織の資産を守る。レッドチームとブルーチームの協力によってセキュリティ上の問題を特定し、対策の強化が可能になる。

 MicrosoftやMeta、Googleなどの組織は、サイバーセキュリティアナリストがAIシステムの脆弱(ぜいじゃく)性を調査する際にAIレッドチームを利用する傾向がある(注1)。「AIレッドチームは、大規模な計算モデルや複数のアプリケーションにアクセスできる汎用(はんよう)AIシステムを扱う全ての人に有用である」とボリーナ氏は言う。

 「AIレッドチームの利用は、敵対的な視点で私たちが持っている安全性やセキュリティ管理を試す重要な方法だ」ともボリーナ氏は述べた。

 レッドチームでは、AIの脆弱性を理解するために、サイバーセキュリティとML(機械学習)両方のバックグラウンドを持つメンバーが協力して活動することが重要だ。しかし、AIレッドチームの構築に際して問題となるのが、熟練したAIサイバーセキュリティ専門家の不足だ。

 Microsoft Security Businessのコーポレート・バイスプレジデントであり、RSAのスピーカーでもあるヴァス・ジャッカル氏によると「機械学習は人材不足の問題の解決に役立つ可能性がある」とのことだ。

 サイバー攻撃に圧倒されるかもしれない新人のセキュリティ専門家にとって、生成AIは強い味方だ。また、経験豊富なセキュリティアナリストはAIを利用して反復作業を自動化し、スキルを磨く時間を得られる。彼らは自分の経験と専門知識をAIツールに統合し、それらのスキルを持たない人と共有できる。

 「一次サプライヤーに新人のセキュリティオペレーションセンターのアナリストがいるとして、AIが常に彼らと共にあり、彼らが調査やリバースエンジニアリング、脅威の追跡について学ぶのをAIがサポートしてくれる状況を想像してみてほしい」(ジャッカル氏)

生成AIに潜むセキュリティリスク

 生成AIの危険性の一つは、情報の出どころを正確に把握することだ。現在は保護策がほとんど整備されていないため、AIが誤った認識を持つと誤った情報の提供がなされ、セキュリティリスクを生む恐れがある。

 チョウダリ氏によると、生成AIはときに情報の共有に慎重になったり、完全な答えを出すのに十分な情報を持っていなかったりする。その結果、生成される回答に偏りが生じることがよくある。

 セキュリティチームは、大規模な言語モデルの訓練を実施する際、正確な情報の提供だけでなく、機密情報や規制対象のデータを公開しないようにも注意する必要がある。

 完璧なセキュリティモデルは存在しないため、AIセキュリティは将来を念頭に置いて構築されるべきだ。現在のAIが学習する内容は、将来においては間違っている可能性もある。組織が言葉や技術の変化に備えていなければ、セキュリティリスクを生むことになりかねない。

 「AIは常に学習している。AIには、防御側に有利な形でセキュリティの業界を完全に変える力がある。こうした未来は現実のものとなるだろう」とジャッカル氏は述べた。

© Industry Dive. All rights reserved.

注目のテーマ