プロナビ

「Microsoft Security Copilot」によるAIセキュリティ対策 “人力”任せからの脱却につながるか(2/3 ページ)

» 2023年04月05日 06時00分 公開

Security Copilotが掲げる「3原則」

 最近、「ChatGPTを企業で活用する」という文脈において、プロンプトに企業機密や個人情報を入力してしまう問題がよく取り沙汰されるようになった。端的にいえば、「入力されたセンシティブな情報がLLMの学習に活用されるのではないか?」「そのような情報を含む学習データによって、外部に情報が漏えいしてしまうのではないか?」という不安である。

 事実、このような問題は「Google翻訳」や「DeepL」といった無料で使えるオンライン翻訳サービスでも指摘されてきたことでもある。無料で使えるからと、企業秘密や個人情報を含む文章を翻訳させ、それが翻訳精度を向上するための学習に使われることで、情報が流出してしまう――そういうスキームだ。

 この手の不安については、こうしたサービスの「有料(サブスクリプション)版」を使うことで解決できる。無料版とは異なり、元の文章と翻訳結果を学習に使わない(蓄積させない)という選択肢が用意されているのだ。

 ゆえに「ビジネスで使うなら、有料版を」というビジネスモデルが成立するようになっている。

DeepL DeepLの有料版「DeepL Pro」では、翻訳後のテキストデータをすぐに削除できる他、文章を保存する場合でも、専用のデータセンターで暗号化した上で保管するようになっている

 機密情報や個人情報の保護を重視しているのはMicrosoftも同様で、特にクラウドシフトを明確にして以降は、データ保護に関する取り組みを常に強調して説明している。

 イベントに登壇した同社のサティア・ナデラCEOは、「Microsoftが考えるセキュリティ分野におけるAI活用の3原則」と、それを踏まえた「Microsoft Security Copilotの意義」を以下の通り説明した。

 OpenAIの「GPT-4」のような新しい(言語AI)モデルとやり取りする機会がますます増えてきています。Microsoft自身も、高度なAIモデルをドメイン固有のデータと組み合わせて、短調な作業を省いて作業の効率を向上するよう努めているところです。一方で、こうした行為には人間により大きな責任が伴うものです。AIを構築する私たちは、それ(責任)を果たすための義務を背負っていると考えています。

 特にセキュリティ分野のイノベーションでは、3つの原則が重要だと考えています。1つ目は「あなたのデータは常にあなたのものであること」、2つめは「あなたのデータは他人が使用する学習モデルのトレーニングには用いられず、あくまで組織内にとどまること」、そして3つめは「業界で最も包括的なエンタープライズレベルのコンプライアンス(法令順守体制)とセキュリティ制御によって、あなたのデータをAIモデルを保護するということ」です。

 サイバーセキュリティの脅威は、かつてないほど困難で複雑になっています。今日のサイバー攻撃は、世界で年間6兆ドルの損害を与え、2025年までに10兆ドルに達すると予測されています。Microsoftでは、あらゆる規模の組織に対して、こうした複雑さ、コストやリスクを軽減しながら、安全に利用できる作業環境の構築を支援し、あらゆる側面でサポートする製品として、Microsoft Security Copilotを用意したのです。

MSCの3原則 MicrosoftがSecurity Copilotを発表するにあたって掲げた「3原則」
ナデラ氏 Microsoftのサティア・ナデラCEO

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

2024年05月13日 更新
最新トピックスPR

過去記事カレンダー