英国で開催された世界初のAI Safety Summitで11月2日(現地時間)、AI大手の米OpenAI、米Meta、米Microsoft、米GoogleのGoogle DeepMind、米Anthropicは、新しいAIモデルを公開する前に米国および英国の政府当局がそれらのモデルをテストできるようにする新たな協定に署名した。
この協定は前日に発表された「ブレッチリー宣言」に続くもので、法的拘束力はない。
英国は「フロンティアAI(特に高度なAIモデルを指す)を安全に開発するためには、新しいモデルの潜在的なリスクを導入前後で厳密に評価することが重要だ」としている。
この協定には、米国、欧州連合、フランス、ドイツ、イタリア、日本、韓国、シンガポール、カナダ、オーストラリアも署名したが、サミットには出席した中国は署名していない。
サミットではまた、フロンティアAIの「State of the Science」(科学の現状)報告書の主導者として、著名なAI学者のヨシュア・ベンジオ教授を支援することも決定した。
「私は世界中の同僚と協力し、この極めて重要な問題に関する最新の証拠を提示することで、AIの安全性管理について切望されている国際調整を支援できることを嬉しく思う」(ベンジオ氏)
署名後に並んだ代表たち。最後列向かって左から3人目から、Metaのニック・クレッグ氏、Anthropicのダリオ・アモデイ氏、OpenAIのサム・アルトマン氏、1人とばしてDeepmindのデミス・ハザビス氏。クレッグ氏とアモデイ氏の間、中央がヨシュア・ベンジオ氏でその右隣がMicrosoftのブラッド・スミス氏
Microsoft、AI採用のサイバーセキュリティの取り組み「Secure Future Initiative」立ち上げ
英国主催の世界AI安全サミットで「ブレッチリー宣言」 日本と中国も参加
OpenAI、AIの“壊滅的な”リスクに取り組む「Preparedness」チーム結成
OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR