Microsoftはセキュリティ専門家とMLエンジニアが生成AIシステムのリスクをプロアクティブに特定できるオープンな自動化フレームワーク「PyRIT」を公開した。PyRITはAIレッドチームの作業効率の向上が期待できる。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Microsoftは2024年2月22日(現地時間)、セキュリティ専門家やML(機械学習)エンジニアが生成AI(人工知能)システムのリスクをプロアクティブに発見できるオープンな自動化フレームワーク「PyRIT」(Python Risk Identification Tool for generative AI)を公開した。
Microsoftは、生成AIシステムにおけるレッドチームに求められる要素として以下を示している。
これらの要素を踏まえて、生成AIシステムにおけるレッドチーム向けに開発されたフレームワークがPyRITだ。Microsoftの「AIレッドチーム」によって実践でテストされており、作業効率の向上が確認された。
PyRITは、レッドチーム担当者の既存のドメイン専門知識を強化し、面倒なタスクを自動化する。使用例としては、「Copilot」システムを使用したレッドチーム演習において、危害のカテゴリーを選択し、数千の悪意あるプロンプトを生成し、PyRITのスコアリングエンジンを使ってCopilotシステムからの出力を数週間レベルではなく数時間レベルで評価できた。
PyRITは業界全体でAIレッドチームのリソースを共有するという理念に基づいて開発されており、「GitHub」においてオープンソースソフトウェアとして公開されている。
Copyright © ITmedia, Inc. All Rights Reserved.