CSA、AI管理策フレームワーク「AICM」を発表 生成AIの信頼性確保を強化セキュリティニュースアラート

CSAが「AI Controls Matrix」(AICM)を発表した。生成AIや大規模言語モデルの信頼性確保を目的とする非ベンダー依存の管理策フレームワークとされている。今後は実装ガイドや認証制度との連携も予定されている。

» 2025年07月15日 08時30分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 日本クラウドセキュリティアライアンス(以下、CSAジャパン)は2025年7月10日、クラウド・セキュリティ・アライアンス(CSA)本部が新たに公開した「AI Controls Matrix」(AICM)について、その概要を発表した。

 AICMは、組織がAIを安全かつ責任ある方法で開発・導入・運用するために設計した包括的な管理策のフレームワークだ。生成系AIや大規模言語モデル(LLM)の急速な進展を背景に、AIシステムの信頼性確保が課題となる中、AICMはその対策として初めてベンダーに依存しない形式で構築されている。

AI活用の新フレームワーク「AI Controls Matrix」の気になる中身

 このフレームワークは、既存のCloud Controls Matrix(CCM)を基盤とし、全18のドメインと243の管理策で構成されている。そのうち「Model Security」(MDS)がAICM特有のドメインであり、残り17のドメインはCCMに準拠している。管理策はAI固有やクラウド固有、AIおよびクラウド双方に関係する区分で構成され、AIサービス提供者の責任共有モデルを明示している。

 AICMの管理策は次の要素に基づいて構築されている。

  • Control Type: 対象とする技術領域(AI、クラウド、両者)を明確化
  • Control Applicability and Ownership: クラウドサービス提供者(CSP)やモデル提供者(MP)、アプリケーション提供者(AP)など、管理策における責任の所在を定義
  • Architectural Relevance: 「GenAI Stack」における各層(ネットワーク、コンピュート、ストレージなど)への対応
  • Lifecycle Relevance: AIシステムのライフサイクル(準備や開発、評価、展開、廃止)全体にわたる関連性
  • Threat Category: モデル操作やデータ汚染、機密情報の漏えい、モデルの盗用など9種類の脅威に対応

 CSAはAICMを透明性や倫理性、プライバシー保護、法令順守といった原則に基づいて設計している。また、CSAの「AI Trustworthy Pledge」(信頼性あるAIに関する誓約)や、今後発表予定の「STAR for AI Program」(AI用の保証・認証プログラム)との連携も予定されている。

 AICMは次のような業界標準とのマッピングも進めている。

  • BSI AI C4(ドイツおよびEU法令対応)
  • NIST AI 600-1(米国連邦機関向け)
  • ISO/IEC 42001(国際標準)
  • EU AI Act(欧州連合のAI規則)

 CSAは今後、AICMの実装ガイドラインや監査ガイドライン、自己評価用質問票(CAIQ for AI)を順次公開し、第三者による認証制度(STAR for AI)と連携する。CSAジャパンは国内におけるAICMの普及と適用支援を進めつつ、各組織が信頼性の高いAIの実現のための実践的な枠組みとして活用することを期待している。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR