米Metaは2月3日(現地時間)、責任あるAI開発と公開のためのフレームワークを発表した。「フロンティアAI」と呼ばれる、最も高度なAIモデルを対象とするものだ。
フロンティアAIとは、高度な汎用生成AIモデルおよびシステムで、最も先進的なモデルの能力を超えるもの。Metaは、フロンティアAIの開発と公開において、リスクを評価し、管理するための厳格なプロセスを設けているという。
Metaは、AIモデルがサイバーセキュリティや化学・生物兵器のリスクに関する脅威シナリオの実行を「独自に可能にする」と評価された場合、その開発を中止するとしている。
「独自に可能にする」とは、そのモデルがなければ、特定の脅威シナリオが実現しないことを意味する。
モデルが脅威シナリオの実行を可能にするように見える場合、開発を一時停止し、壊滅的な結果の実現を阻む障壁が残っているかどうかを調査する。この場合、適切な緩和策が見つかるまで、そのモデルの開発を中止する。
モデルが、脅威シナリオの実行に向けて「大幅な向上」をもたらすが、壊滅的な結果を生み出すのに十分な脅威シナリオの実行を可能にするものではない場合は、開発を中止はしないが、そのモデルを外部に公開しない。
同社は、脅威モデリング演習を通じてフロンティアAIがどのように悪用され、壊滅的な結果を生み出す可能性があるかを体系的に分析している。このプロセスでは、外部の専門家と協力して、新しい脅威シナリオを特定し、モデルがこれらのシナリオを可能にする能力を評価しているという。
Metaは、オープンソースのアプローチを通じて、AIの透明性を高め、モデルの信頼性を向上させることを目指している。また、モデルの展開に関するガイダンスを提供することで、外部のコミュニティが安全にモデルを活用できるように支援していると説明した。
Copyright © ITmedia, Inc. All Rights Reserved.