英国で開催された世界初のAI Safety Summitで11月2日(現地時間)、AI大手の米OpenAI、米Meta、米Microsoft、米GoogleのGoogle DeepMind、米Anthropicは、新しいAIモデルを公開する前に米国および英国の政府当局がそれらのモデルをテストできるようにする新たな協定に署名した。
この協定は前日に発表された「ブレッチリー宣言」に続くもので、法的拘束力はない。
英国は「フロンティアAI(特に高度なAIモデルを指す)を安全に開発するためには、新しいモデルの潜在的なリスクを導入前後で厳密に評価することが重要だ」としている。
この協定には、米国、欧州連合、フランス、ドイツ、イタリア、日本、韓国、シンガポール、カナダ、オーストラリアも署名したが、サミットには出席した中国は署名していない。
サミットではまた、フロンティアAIの「State of the Science」(科学の現状)報告書の主導者として、著名なAI学者のヨシュア・ベンジオ教授を支援することも決定した。
「私は世界中の同僚と協力し、この極めて重要な問題に関する最新の証拠を提示することで、AIの安全性管理について切望されている国際調整を支援できることを嬉しく思う」(ベンジオ氏)
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR