Cloudflare、大規模言語モデルを保護する新たなファイアウォールを開発セキュリティソリューション

Cloudflareは大規模言語モデルを悪用から保護するための「Firewall for AI」を開発していると発表した。今後数カ月以内にβ版を提供する予定だ

» 2024年03月07日 08時00分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 Cloudflareは2024年3月4日(現地時間)、AI(人工知能)向けのファイアウォール「Firewall for AI」を開発していると発表した。

Cloudflareが大規模言語モデルを保護するファイアウォールを開発

 Firewall for AIは大規模言語モデル(LLM)の前にデプロイすることが想定されており、LLMに到達する前に悪用を特定できる保護レイヤーとして機能する。サイバー攻撃を検出し、機密データの漏えいを防ぎ、不正使用を阻止する。Cloudflareはこの新機能を現在開発中であり、今後数カ月以内にβ版をリリースする予定だ。

 Cloudflareは従来のWebアプリケーションとLLMをインターネットに接続されたアプリケーションと考える場合、この2つの間には次の違いがあると指摘している。

  • 従来のアプリケーションは本質的に決定論的である。一方、LLMの操作は設計上非決定論的である。LLMのインタラクションは自然言語に基づいており問題があるリクエスを特定することがより困難になっている。また、応答がキャッシュされない限り同じ入力プロンプトに対しても毎回異なる返答が返される
  • 従来のアプリケーションにおいてコントロールプレーンコードはデータプレーンコードから十分に分離されている。一方、LLMはトレーニングプロセスを通じてトレーニングデータがモデルの一部になっており、ユーザープロンプトの結果としてそのデータがどのように共有されるかを制御することは極めて困難だ。幾つかの方法は検討されているが、効果的な方法はまだ発見されていない

 この違いによって、サイバー攻撃者はLLMを標的とすることで従来のWebアプリケーション用に設計された既存のセキュリティツールの検出を回避できる新たな攻撃ベクトルを開発できる。

 Firewall for AIは従来のWebアプリケーションファイアウォールと同様に展開され、LLMのプロンプトを含む全てのAPIリクエストがスキャンされ、攻撃の可能性のパターンとシグネチャが検証されることになる。

 この新しいファイアウォールは機密データを識別して漏えいを阻止できる他、LLMの不正使用防止、プロンプトと応答のデータ検証とルール策定などの機能も提供する。

 Firewall for AIのβ版を使用を開始したい場合は、サインアップして順序待ちリストに登録する必要がある。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ