GoogleはAIシステムの安全性を高めるため、攻撃者の視点からセキュリティの弱点を検証する専門チームの取り組みを公表した。AI特有の確率的な振る舞いや、ソーシャルエンジニアリングに近い攻撃特性に対応し、従来の防御を補完する。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Googleは2026年4月17日、AIシステムの安全性向上を目的としたレッドチームの取り組みについて詳細を公表した。攻撃者の動きを先回りし、脅威が顕在化する前に弱点を発見できる体制を整えた。
同社のレッドチームは創設以来、セキュリティ戦略の中核を担い、防御側のチームと連携しながらユーザーや顧客のセキュリティ保護に貢献してきた。技術の進展に伴って活動は進化し、AIに特化したチームが新設された。このチームは国家による関与が疑われる攻撃者やサイバー犯罪者、内部不正など多様な脅威を想定し、実践的な攻撃手法を使ってシステムを検証している。
AI分野においては、現実の攻撃事例がまだ限定的だ。この状況下において、過去のデータに依存した従来型の防御には限界があるため、レッドチームによる検証が重要な補完手段となる。同社は脅威インテリジェンスや研究成果を活用し、将来起こり得る攻撃を視野に入れた検証を進めている。
具体的には、攻撃シナリオの設計段階で攻撃者の能力や目的を定義し、その達成手段を詳細にシミュレーションする。近年はプロンプトインジェクションなどのリスクが深刻化しており、特にAIが業務自動化や機密情報の処理を担う領域において、脆弱(ぜいじゃく)性が顕在化しやすい。AIが多様なプロダクトに組み込まれることで現実世界との接点が広がり、攻撃を受ければその影響範囲が広範囲に及ぶことを同社は指摘している。
また、AIへの攻撃は従来の決定論的なマルウェアとは異なり、ソーシャルエンジニアリングに近い性質を持ち、確率的な振る舞いをする点が特徴だ。攻撃者はモデルの応答を反復的に観察することで、誤動作を誘発する特定の条件を探り当てる。そのため、防御側には従来のコードレベルでの欠陥検出に加え、モデルの出力や挙動そのものを継続的に評価するアプローチが求められる。
攻撃は単一の領域にとどまらず、システム全体にわたって横断的に展開される。Googleは、従来のセキュリティチームとAI専門チームを密接に連携させ、内部ネットワークへの侵入や権限奪取といった一連の攻撃プロセスを再現している。これにより、実戦に近い環境で潜在的な弱点を洗い出し、包括的な防御体制の強化につなげている。
活動には厳格なルールが設けられている。対象は自社が管理するシステムに限定され、実際の顧客データにはアクセスしない。演習では疑似環境を使い、全ての行動を詳細に記録する。これによって監査性を確保し、防御側が実際の攻撃と演習を区別している。
今後について同社は、AIの安全対策で重要なのは攻撃者の思考を理解する姿勢だとする。高度な専門知識がなくとも、現実的な攻撃経路を想定することで有効な検証が可能になるという考えを示した。
AIの普及に伴い、攻撃の速度や規模は拡大している。自動化された手法により、検知前に情報流出が発生する恐れもある。このような環境下で、同社は継続的な学習と評価を重視し、演習結果を分析して防御機能の改善や投資判断に反映させていく方針を示した。
米2強が狙う“AI社員”の普及 Anthropicは「業務代行」、OpenAIは「運用プラットフォーム」
Microsoftがまたもや値上げ M365サブスク料金を最大33%増の「言い分」
JR東日本が「AI面接官」を新卒採用に導入 単なる効率化にとどまらない目的とは
室蘭工業大学が「Shachihata Cloud」導入 シヤチハタの電子決裁でDXを加速Copyright © ITmedia, Inc. All Rights Reserved.