米Microsoftは3月28日(現地時間)、米OpenAIの大規模言語モデル(LLM)「GPT-4」採用のセキュリティ分析ツール「Microsoft Security Copilot」を発表した。Azure上で稼働し、組織のセキュリティ担当者が侵害を特定し、防御するのを助けるAIサービスだ。まだプレビュー段階で、一般提供は開始されていない。
GPT-4をMicrosoftのセキュリティ固有のモデルと組み合わせた「単なるLLMではなく学習するシステム」。Microsoftのモデルにはセキュリティ固有のスキルセットが組み込まれており、独自の脅威インテリジェンスとMicrosoftが毎日受け取っている65兆以上の脅威シグナルで情報が提供されているという。
セキュリティ担当者がプロンプトから自然言語で、例えば「最近のランサムウェア攻撃の傾向は?」と尋ねると、関連するデータやレポートを提示する。さらに「どう対策すべきか?」と入力すると、ベストプラクティスや推奨事項を提供する。
また、プロンプトにファイルを添付して怪しいものかどうかチェックを頼むこともできる。
Microsoftは「Security Copilotは常にすべてを正しく行うわけではない」が、ユーザーのインプットから常に学習し、フィードバックを受けて成長していくと説明する。
とはいえ、「ユーザーのデータを基盤となるAIモデルのトレーニングに使うことはない」。データとAIモデルは「業界で最も包括的なエンタープライズコンプライアンスとセキュリティコントロールによって、あらゆる段階で保護されている」としている。
Security Copilotの活用シナリオなどは専用ページにまとめられている。
Microsoftは、2021年6月に「GitHub Copilot」を発表し、その後「Dynamics 365 Copilot」、「Microsoft 365 Copilot」、ローコード開発の「Power Platform」の「Copilot」を立て続けてに発表している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR