Meta、高リスクな「フロンティアAI」は開発停止も──フレームワーク公開
Metaは、最先端のAIモデルである「フロンティアAI」の開発において、リスク評価を重視するフレームワークを公開した。AIモデルが脅威シナリオの実行を「独自に可能にする」と評価された場合、その開発を中止するとしている。
米Metaは2月3日(現地時間)、責任あるAI開発と公開のためのフレームワークを発表した。「フロンティアAI」と呼ばれる、最も高度なAIモデルを対象とするものだ。
フロンティアAIとは、高度な汎用生成AIモデルおよびシステムで、最も先進的なモデルの能力を超えるもの。Metaは、フロンティアAIの開発と公開において、リスクを評価し、管理するための厳格なプロセスを設けているという。
Metaは、AIモデルがサイバーセキュリティや化学・生物兵器のリスクに関する脅威シナリオの実行を「独自に可能にする」と評価された場合、その開発を中止するとしている。
「独自に可能にする」とは、そのモデルがなければ、特定の脅威シナリオが実現しないことを意味する。
モデルが脅威シナリオの実行を可能にするように見える場合、開発を一時停止し、壊滅的な結果の実現を阻む障壁が残っているかどうかを調査する。この場合、適切な緩和策が見つかるまで、そのモデルの開発を中止する。
モデルが、脅威シナリオの実行に向けて「大幅な向上」をもたらすが、壊滅的な結果を生み出すのに十分な脅威シナリオの実行を可能にするものではない場合は、開発を中止はしないが、そのモデルを外部に公開しない。
同社は、脅威モデリング演習を通じてフロンティアAIがどのように悪用され、壊滅的な結果を生み出す可能性があるかを体系的に分析している。このプロセスでは、外部の専門家と協力して、新しい脅威シナリオを特定し、モデルがこれらのシナリオを可能にする能力を評価しているという。
Metaは、オープンソースのアプローチを通じて、AIの透明性を高め、モデルの信頼性を向上させることを目指している。また、モデルの展開に関するガイダンスを提供することで、外部のコミュニティが安全にモデルを活用できるように支援していると説明した。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
MetaのザッカーバーグCEO、「AI推進に650億ドル投資する」
MetaのザッカーバーグCEOは、2025年中にAI推進のために650億ドル投じるとFacebookで発表した。競合するOpenAIがトランプ大統領と共に1000億ドル規模のAI合弁事業「Stargate」を発表した翌日のことだ。
OpenAI、壊滅的なリスクのあるAIのフロンティアモデルに関しては取締役会に拒否権
OpenAIは、高リスクなAIのフロンティアモデルに関しては、新たに立ち上げた「安全諮問グループ」が審査すると発表した。経営陣に決定権があるが、取締役会に拒否権を持たせる。
OpenAIやMetaなどAI大手、フロンティアAIモデルのリリース前に政府当局のテストを受ける協定に署名
英国で開催のAI Safety Summitで、OpenAI、Meta、Microsoft、Google DeepMind、Anthropicは、フロンティアAIモデルのリリース前に政府当局がそれらのモデルをテストできるようにする協定に署名した。
AIの4社(Anthropic、Google、Microsoft、OpenAI)、安全なAI目指すフォーラムFMF立ち上げ
米国のAI主要企業であるAnthropic、Google、Microsoft、OpenAIは、新フォーラム「Frontier Model Forum」(FMF)を立ち上げた。AIの安全性のベストプラクティスを特定し、社会的課題へのAI技術の利用を促進するのが目的としている。
