2024年は“生成AI”と“iPhone”に注意 Acronisがサイバーセキュリティ予測を公開セキュリティニュースアラート

Acronisは同社のキーパーソンによる2024年のサイバーセキュリティ脅威予測を公開した。生成AIへの理解が進んだ結果、新たな問題が発生すると予測されている。

» 2023年12月19日 08時30分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 アクロニス・ジャパン(以下、アクロニス)は2023年12月15日、Acronisのキーパーソン3人による2024年のサイバーセキュリティ脅威予測を公開した。生成AI(人工知能)への理解の深化に伴う問題発生の増加やサイバー攻撃者によるAIの利用促進などが予測されている。

アクロニスは2024年のサイバー脅威予測を発表した(出典:アクロニスのWebサイト)

2024年は生成AIとiPhoneに注意? アクロニスが予測を発表

 Acronisが公開した予測の主な内容は以下の通りだ。

 キャンディッド・ヴュースト氏(サイバープロテクション研究所 リサーチ担当バイスプレジデント)は以下の予測を発表した。

  1. 利益の獲得を目的として生成AIへの理解が深まり、より頻繁に問題が発生する。サイバー攻撃者は機密情報を窃取するために独自の方法でAI技術の利用を開始する。既にフィッシングにおいては生成AIが悪用されており、このリスクは今後も脅威になり続ける。こうした状況を受けて新しい法規制が多数登場する
  2. フィッシング対策型の多要素認証(MFA)が普及する。フィッシング対策型のMFAプロセスではユーザーがトークンやコードを受け取ってログインした後はそのトークンやコードは他のデバイスからはアクセスできず、ユーザーのセッションに結び付けられるようになる
  3. 「iPhone」のUSB-C対応を受けて、USBポートにマルウェアを仕込んだりUSBポート経由でデータを窃取したりする「ジュースジャッキング攻撃」が増加する。充電は自前の電源アダプターを使ったり、データ接続が無効化されたケーブルを使ったりといった対策で回避できる

 ケビン・リード氏(最高情報セキュリティ責任者)は以下の予測を発表した。

  1. AI支援型ソーシャルエンジニアリング攻撃の件数が増加する(AIによってターゲットの偽の音声を生成して生体認証を突破、ITヘルプデスクをだましてパスワードのリセットや二要素認証を無効化、従業員を標的としてCEOを装ったソーシャルエンジニアリング攻撃の実施など)
  2. 大規模言語モデル(LLM)が実際には存在しない情報を生成する「LLMハルシネーション」によって多くの偽情報が生成され、「Wikipedia」などの情報に影響を与える可能性がある。この他、LLMがマルウェア開発に利用されるのに加え、LLMが生成するソースコードを確認せずに貼り付けて使用することで診断の難しいバグや脆弱(ぜいじゃく)性が発生する
  3. ランサムウェア攻撃が増加する。ランサムウェア攻撃の一部自動化やランサムウェア犯罪組織のフランチャイズ化、持続的標的型攻撃(APT)の継続した活動が予測される
  4. ソフトウェア脆弱性の修正パッチを適用しない企業を狙うサイバー攻撃が引き続き発生する

 ガイダー・マグダヌロフ氏(マーケティング担当プレジデント)は以下の予測を発表した。

  1. ユーザーがAIアシスタントを過度に使用することで予期しない結果が引き起こされ、特定困難なミスが増加する。従業員の教育がさらに重要になる
  2. AIによってカスタマイズされた大規模なサイバー攻撃を回避するために、さらに多層化された防御手段が標準になる
  3. 統合プラットフォームの増加に応じるためにAPIの公開が急増する

 Acronisのキーパーソンによるサイバーセキュリティ脅威予測は多くの面でAIが強く影響を与えることを示している。企業は今後、2024年にはAIが多くの場面で重要になっていくことを認識するとともに、現在普及しているAI関連サービスやその技術を理解し、適切に利用することが求められている。

Copyright © ITmedia, Inc. All Rights Reserved.