IPAは、米国におけるAI関連のセキュリティ脅威やリスクの認識についてのレポートを公開した。AIの進化が引き起こす脅威を包括的に分析し、その対策の必要性を提言している。
この記事は会員限定です。会員登録すると全てご覧いただけます。
情報処理推進機構(以下、IPA)は2024年5月30日、AIの進化に伴うセキュリティ脅威やリスクについての認知調査レポートを公開した。このレポートはAI先進地域である米国を対象に2024年1〜2月かけて実施された調査の結果をまとめたものだ。
レポートによると、AIで強化されたサイバー攻撃が増加し、特にフィッシング攻撃や生成AIの誤用が顕著になっているという。同レポートの概要は以下の通りだ。
AIで強化された従来のサイバー攻撃は、より素早く、強力かつ効率的に実行する傾向がみられる。特にフィッシング攻撃が顕著で、2022年末と比較して悪意のあるフィッシングメールが1265%増加している。
また、国家が支援する脅威アクターによる高度な攻撃も見受けられる。フィッシングについては特に大きな脅威と認識されている他、高度な攻撃やマルウェアの自動生成については大きな脅威となるのに時間がかかる見込みだ。
AIを悪用した虚偽情報の拡散では、国家が支援する脅威アクターによる攻撃が懸念されている。フェイクニュースや偽情報を信じさせることで社会分断を狙う攻撃が増加すると考えられている。具体的には有名人のフェイク画像による中傷や株価の乱高下、選挙候補の中傷などが報告されている。また選挙妨害に対する懸念は特に大きく、米国では深刻な脅威として認識されている。
AIによるシステム障害とAIシステムへの攻撃ではデータポイズニングが最大の懸念とされている。データポイズニングは学習データにノイズや特殊なパターンを入れることで、AIの性能を劣化させたり誤作動を引き起こしたりする攻撃手法だ。生成AIへの悪意のプロンプトによる攻撃も新たな課題として挙げられている。ただしこれらの脅威は現時点では攻撃事例は少なく、認知度もまだ低い状況となっている。
軍事利用におけるAIの開発および利用については、米国や中国、欧州で進んでおり、特に米中間のAI軍備競争が激化している。テストが十分に実施されていないAIが実戦に投入されるリスクが懸念されており、AIによる大規模監視やバイオテロへの利用も警戒されている。
生成AIの誤用によるビジネスリスクとして、営業秘密情報や個人情報の漏えいが挙げられている。生成AIを使ったソフトウェア開発においては脆弱(ぜいじゃく)なコードの生成リスクがあるが、具体的な事例はまだ確認されていない。生成AIの利用規則を設けている企業は21%にとどまり、情報漏えいや不適切な出力への対策は不十分と考えられている。
Copyright © ITmedia, Inc. All Rights Reserved.