速報
OpenAIやMetaなどAI大手、フロンティアAIモデルのリリース前に政府当局のテストを受ける協定に署名
英国で開催のAI Safety Summitで、OpenAI、Meta、Microsoft、Google DeepMind、Anthropicは、フロンティアAIモデルのリリース前に政府当局がそれらのモデルをテストできるようにする協定に署名した。
英国で開催された世界初のAI Safety Summitで11月2日(現地時間)、AI大手の米OpenAI、米Meta、米Microsoft、米GoogleのGoogle DeepMind、米Anthropicは、新しいAIモデルを公開する前に米国および英国の政府当局がそれらのモデルをテストできるようにする新たな協定に署名した。
この協定は前日に発表された「ブレッチリー宣言」に続くもので、法的拘束力はない。
英国は「フロンティアAI(特に高度なAIモデルを指す)を安全に開発するためには、新しいモデルの潜在的なリスクを導入前後で厳密に評価することが重要だ」としている。
この協定には、米国、欧州連合、フランス、ドイツ、イタリア、日本、韓国、シンガポール、カナダ、オーストラリアも署名したが、サミットには出席した中国は署名していない。
サミットではまた、フロンティアAIの「State of the Science」(科学の現状)報告書の主導者として、著名なAI学者のヨシュア・ベンジオ教授を支援することも決定した。
「私は世界中の同僚と協力し、この極めて重要な問題に関する最新の証拠を提示することで、AIの安全性管理について切望されている国際調整を支援できることを嬉しく思う」(ベンジオ氏)
関連記事
- Microsoft、AI採用のサイバーセキュリティの取り組み「Secure Future Initiative」立ち上げ
Microsoftは次世代サイバーセキュリティの新たな取り組み「Secure Future Initiative」(SFI)を立ち上げたと発表した。「CodeQL」によるセキュリティチェックの自動化などを取り入れていく。 - 英国主催の世界AI安全サミットで「ブレッチリー宣言」 日本と中国も参加
世界はつのAI Safety Summitが英国のブレッチリーパークで開催された。米、中、日を含む29カ国が参加し、AIのリスクにグローバルで対処する「ブレッチリー宣言」に署名した。 - OpenAI、AIの“壊滅的な”リスクに取り組む「Preparedness」チーム結成
OpenAIは、AIの“壊滅的な”リスクに取り組むためのチーム「Preparedness」を結成した。また、そうした壊滅的リスクとその対処についてのアイデアを募集するコンテストも開始。優秀な回答には2万5000ドル分のAPIクレジットを提供する。 - OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束
米連邦政府はAIを手掛ける7社の代表をホワイトハウスに招集し、AIの安全性、セキュリティ、透明性の高い開発に向けた取り組みを支援するため、これらの企業から自主的な取り組みを確保したと発表した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.