検索
特集

生成AIの悪用が本格化する具体的なタイミングはいつか? IBMが指摘Cybersecurity Dive

研究者たちは「AIによって設計されたサイバー攻撃はまだ確認されていないが、サイバーセキュリティ市場でAIシステムが注目を集めるのは時間の問題だ」と述べている。その具体的なタイミングはいつだろうか。

Share
Tweet
LINE
Hatena
Cybersecurity Dive

 IBMによると、AIを利用したキャンペーンはまだ確認されていないが、ダークWebではAIや「ChatGPT」に関する言及が急増している。

サイバー犯罪者が生成AIの悪用を本格化させるタイミングはいつか?

 IBMが発表した調査レポート「X-Force Threat Intelligence Index 2024」によると(注1)、2023年に、不正なダークWebフォーラムにおいて、この新たなテクノロジーへの言及が80万件以上確認されている。同社の調査チームIBM Security X-Forceは、近い将来AIを利用した攻撃が実行されるだろうと予測しているが、真の脅威はAIの導入が成熟したときに現れると考えている。

 現在、AIシステムがあまりにも多くの分野で活用されている。

 OpenAIのChatGPTは生成AIの代名詞となっているが、どの大規模言語モデル(LLM)が最も効果的で透明性が高いかを各社は競い合っている。10種類のAIモデルをテストした結果、Googleの「Gemini」が競合他社を圧倒し(注2)、OpenAIの「GPT-4」およびMetaの「Llama 2」がそれに続いた。AI企業Vero AIによって作成されたこのテストは、AIモデルの可視性や完全性、最適化、法的準備、有効性、透明性を測定するものだった。

 企業はAIの導入を促進するために、クラウドやソフトウェアのプロバイダーに依存している。The Coca-Cola CompanyはMicrosoftと11億ドルのパートナーシップを締結し、同社のクラウドと生成AIサービスを利用している。また、食品企業であるGeneral MillsはGoogleの「PaLM 2」を利用して(注3)、従業員にプライベートな生成AIツールを提供した。

 IBM Security X-Forceの調査によると、現在、サイバー犯罪者はランサムウェアやビジネスメールによる詐欺、クリプトジャッキングに注力している。しかし同社は単一のAI技術の市場シェアが50%に達するか、主要なAI製品が3つ以下になったときに、サイバー犯罪のエコシステムがAIを標的にしたツールや攻撃を開発し始めると予測している。

AIはすでに巧妙な攻撃キャンペーンを強化できる

 Microsoftは2024年2月、北朝鮮やイラン、ロシアのハッカーがOpen AIを使ってサイバー攻撃を仕掛けており(注4)、同社がそれを阻止したことを報告した。

 サイバーセキュリティ事業を営むAppOmniのメリッサ・ルッツィ氏(人工知能の領域を担当するディレクター)は「それは驚くべきことではない」と述べた。生成AIはソーシャルエンジニアリングやフィッシング攻撃を急速に強化できるのだ。

 攻撃者は、インターネットのあらゆる場所からユーザーに関するデータを収集し、似た情報を組み合わせて、個人に関する詳細な情報を把握し、フィッシング攻撃を高度にカスタマイズできる。例えば「Instagram」のハンドルネームから本名を特定できる。

 ルッツィ氏によると、これはなりすましの電子メールを送るだけの話ではない。AIを使えば、企業の求人に応募している実在の人物になりすますことも可能で、丁寧に書かれたカバーレターや履歴書を用意することも可能だ。ハッカーはAIを使って、そのポジションがどれだけ長く空いているかを判断できる。ルッツィ氏は「企業が採用にどれだけ必死かをも見極められる」と述べた。

 攻撃者は生成AIを使ってパスワードを解読し、以前成功した攻撃の回数を増やし、サイバーセキュリティの防御を回避できる。残念ながら、これらの悪用に限界はない。

AIは真実をゆがめるために使われる可能性がある

 サイバーセキュリティ事業を営むCrowdStrikeのアダム・メイヤーズ氏(シニアバイスプレジデント)は「生成AIは偽情報や誤った情報を拡散するためにも使用されている」と述べた。「CrowdStrike 2024 Global Threat Report」において(注5)、同社はイスラエルとハマスの戦争に関連するAI画像を追跡した。

 例えば、人の指が6本あるような画像も依然として使用されているため、偽造した画像は比較的容易に見分けることができる。しかし、2024年には、選挙を妨害する目的で画像の偽造もさらに巧妙になるだろう。CrowdStrikeの調査によると、2024年には、世界人口の42%以上が大統領選や議会選、総選挙で投票するようになるという。

 メイヤーズ氏は「すでに生成AIを活用して作成したディープフェイクが誤った情報として使用されるのを目にしている」と述べ、最近のニューハンプシャー州予備選挙で使用されたバイデン大統領に関する偽造画像を例に挙げた(注6)。

 当然ながら、企業のサイバーセキュリティ専門家も安心できない。攻撃は、政治の分野に限定されるわけではないためだ。

 メイヤーズ氏は「大統領のディープフェイクを作れるなら、企業の社長のディープフェイクも作れるだろう」と述べた。悪質な攻撃者は、ディープフェイクを「Zoom Meetings」で使用し、従業員に送金などの指示を出すこともできる(注7)。ソーシャルエンジニアリングを通じて、社長が不在の時間を把握し、タイミングを合わせて行動できるのだ。

 「攻撃者が作り出す攻撃の量と質が大変恐ろしいものになりつつある」(ルッツィ氏)

© Industry Dive. All rights reserved.

ページトップに戻る