「生成AI」はセキュリティをどう脅かすのか? 大手5社の脅威予測から探るWeekly Memo(2/2 ページ)

» 2024年01月15日 14時00分 公開
[松岡功ITmedia]
前のページへ 1|2       

企業にとって深刻なAIのガバナンス欠如

 Trellixはもう一つ、「ソーシャルエンジニアリング詐欺のためのAI生成音声」について、次のように予測している。

 「AIが生成した音声を使った詐欺の増加は、個人と組織に重大なリスクをもたらす懸念すべき傾向で、2024年も増加すると予想される。これらの詐欺にはソーシャルエンジニアリングの手口が使われることが多く、詐欺師は心理操作のテクニックを使って個人情報の開示や金融取引の実行など、個人に特定の行動をとらせる。AIが生成する音声はこの中で重要な役割を果たし、被害者に信頼と緊急性を植え付け、心理操作に対してより脆弱にさせる」

 最近の技術革新により、AIが生成する音声の質は大幅に向上した。このことについて同社は「人間の話し方やニュアンスを忠実に模倣できるようになり、本物と偽物の声を区別することがますます難しくなっている。さらに、AI音声生成ツールの入手のしやすさと手頃な価格により、普及が進んでいる。技術的な専門知識を持たない個人でも、これらのツールを使って説得力のある人工音声を簡単に作成でき、詐欺師に力を与えている」と警鐘を鳴らす。

 また、拡張性ついても、「詐欺師はAIが生成した音声を活用して、詐欺行為を自動化し、拡大させることができる。パーソナライズされた音声メッセージや通話で、多数の潜在的な被害者を同時にターゲットにすることができ、そのリーチと効果を高めることができる。AIが生成した音声をリアルタイムで検出することは、特にこの技術に精通していない個人にとっては重要な課題だ。AI音声の信ぴょう性が増しているため、被害者が本物と詐欺のコミュニケーションを区別することが難しくなっている。さらに、このような詐欺は言語の壁に制限されないため、詐欺師はさまざまな地域や言語的背景を持つ被害者をターゲットにできる」と指摘する。

 上記はソーシャルエンジニアリング詐欺の怖さをより具体的に示している。「詐欺」という言葉を強調しているのが印象的だ。

 一方、CrowdStrikeは「見えないAIが組織に新たなリスクをもたらす」として、次のようにみている。同社の具体的な説明から核心部分を紹介する。

 「2024年には脅威アクターの関心がAIシステムに向かうと予想している。組織が承認するAIの脆弱性や、従業員による未承認AIツールの使用によって組織内に“死角”が生まれることから、AIシステムが組織を狙う際の新たな脅威ベクトルとして浮上するだろう」

 「2023年はAIの導入および活用が劇的に進んだ。その一方で、AI導入時におけるセキュリティチームの脅威モデルに対する理解度はいまだ初心者レベルだ。従業員が無断で持ち込む非承認AIツールの追跡も追い付いていない状況にある。こうした新しいテクノロジーは“死角”を産みやすく、脅威アクターに企業ネットワークへの侵入や機密データ窃取のチャンスを与えてしまう可能性がある」

 「ここで重要なのは、セキュリティチームが従業員によるAIツールの無断使用を放置してしまうと、企業はデータ保護上の新たなリスクへの対応を余儀なくされるという点だ。社内データをAIツールに入力すると、使用したAIツールの脆弱性が脅威アクターに悪用されてデータを窃取されるリスクがあるだけではない。AIシステムのトレーニングプロトコルによってデータが漏えいし、不正グループに共有される恐れもある」

 「2024年は多くの組織が社内に目を向け、公式チャンネルと非公式チャンネルの両方を活用してAIがすでに導入されている部署を確認するとともに、リスク状況を評価し、自社のリスクと費用を最小限に抑えながら最大の効果をもたらす、安全かつ監査可能なAI利用に向けた戦略的ガイドラインを策定する年になるだろう」

 CrowdStrikeはAIのガバナンスの欠如に対して上記のような警鐘を鳴らした。ガバナンスは企業がAIを活用する上でのリスクマネジメントにおいて最も重要だと言っていい。

 最後に、セキュリティベンダーとしても大手のCisco Systemsによる「2024年に予測されるテクノロジー動向」のメッセージを紹介しておこう。

 「当社は、AIは人間の意思決定を拡充するものであり、完全に置き換わるものではないと考えている。AIは未来の触媒、そしてキャンバスとして発展している。すでに家や車、オフィス、そしてポケットの中にもAIは入り込んでいる。瞬く間に驚異的な進歩を遂げたAIだが、メリットとリスクのバランスを取ることも重要だ」

 「人間とAIシステム、そしてそこで活用されるツール間の信頼の確保は基本であり、譲歩の余地はない。つまり、データの透明性と責任の新たな枠組みにより、AIに何ができ何ができないかを明確にし、どのように中断が発生し得るかを人々や企業が知り、AIを実現する、あるいはAIによって実現される新たな仕事に求められるスキルを習得し、肝心な人間に最も資するコラボレーションの新たな形を示す必要がある」

 人間はAIをどう使っていけばよいのか。それは取りも直さず、人間とAIはどこが違うのか。つまり、人間とは何かを突き詰めていくことだ。この哲学的議論を今だからこそ、もっとしっかりやるべきだ。でなければ、人間はAIの使い方を誤るような気がしてならない。

著者紹介:ジャーナリスト 松岡 功

フリージャーナリストとして「ビジネス」「マネジメント」「IT/デジタル」の3分野をテーマに、複数のメディアで多様な見方を提供する記事を執筆している。電波新聞社、日刊工業新聞社などで記者およびITビジネス系月刊誌編集長を歴任後、フリーに。主な著書に『サン・マイクロシステムズの戦略』(日刊工業新聞社、共著)、『新企業集団・NECグループ』(日本実業出版社)、『NTTドコモ リアルタイム・マネジメントへの挑戦』(日刊工業新聞社、共著)など。1957年8月生まれ、大阪府出身

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ