検索
ニュース

ガードレール“フル無視” 攻撃用途に特化したAIモデルの最新動向セキュリティニュースアラート

Palo Alto Networksは、倫理的制限を排除した大規模言語モデル(LLM)がサイバー攻撃に悪用されている実態を公表した。有償版・無償版が提供されている。これを利用すると攻撃の速度と規模を劇的に変化する可能性がある。

Share
Tweet
LINE
Hatena

 Palo Alto Networksの脅威分析部門「Unit 42」は2025年11月25日(現地時間)、悪用目的で開発された大規模言語モデル(LLM)がサイバー攻撃に使われている実態を明らかにした。AIが防御と攻撃の両面で利用され得る性質を持つ点に焦点を当て、セキュリティ分野に新たな課題が生じている状況を明らかにしている。

ガードレール“フル無視” 攻撃用途に特化したAIモデルの最新動向

 LLMは自然で説得力のある文章生成や、機能するプログラムコードの作成を短時間で可能にする。防御側では分析補助や対応高速化に役立つが、攻撃側ではフィッシングやビジネスメール詐欺、マルウェア作成の効率化に利用されている。

 調査では、一般的な研究用途や業務支援に使われるAIと悪用目的に作られたAIとの差は、AIモデルの基盤技術よりも、開発や調整の過程でどのような制限や安全対策が組み込まれているかに左右される点が指摘されている。

 学習段階や追加調整の段階で倫理的制約や利用制御を設けたAIモデルは不正行為への利用を抑制する設計となるが、こうした制限を意図的に排除したAIモデルは、同じ言語生成やコード生成の能力を攻撃活動に直接使うことが可能になる。報告書はこの違いが技術的な性能差ではなく、設計思想や運用方針の違いに起因するとしている。

 Unit 42は、攻撃用途を主眼に構築されているAIモデルとして「WormGPT」と「KawaiiGPT」を取り上げている。これらは倫理的制御や安全対策が意図的に排除され、地下フォーラムや「Telegram」で宣伝・配布されている。主な機能として、詐称メール文面の生成やカスタマイズ可能なマルウェア作成、偵察や侵入作業の自動化が確認されている。

 WormGPTは2023年に登場し、オープンソースの言語モデルを基盤として悪意あるデータで調整されている。マルウェアコードやエクスプロイト解説、詐欺用文面を含むデータが学習に利用されており、派生形として「WormGPT 4」が確認されている。

 WormGPT 4は攻撃支援機能を前面に出した商業サービスとして展開されており、明確な価格体系を持つ点が特徴で、2025年9月下旬以降に販売活動が観測されている。調査チームの検証では「Windows」環境でPDFファイルを暗号化するPowerShellスクリプトや期限を設定した身代金要求文書が即時に生成できたとしている。

 KawaiiGPTは無料で入手可能な点が特徴で、2025年7月に確認されている。「GitHub」で公開されており、短時間で実行環境を整えられる設計となっている。調査では金融機関を装う詐称メール文面やネットワーク内での横方向移動を支援するPythonスクリプト、電子メールデータを外部に送信するコードが生成できたという。正規のプログラミングライブラリーを利用する構成により、攻撃通信が通常の挙動に紛れやすい点も特徴だ。

 Unit 42は調査結果として、攻撃に必要だった言語能力やプログラミング技術のハードルが下がり、短時間で大規模な攻撃準備が整えられる状況が形成されていると述べている。文法の不自然さや未熟なコードを手掛かりにする従来型の検知が有効性を失いつつある点も指摘している。

 報告書は、悪意あるLLMが既存の脅威環境に組み込まれつつある現状を示した上で、基盤モデルの開発者、政策立案者、研究者それぞれが、安全対策や検証体制の整備に責任を持つ必要があると助言している。AI技術の進展が攻撃の速度と規模を変えつつある状況への継続的な対応が求められる。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る