米OpenAIは12月18日(現地時間)、AIの脅威を防ぐための安全プロセスを拡張したと発表した。10月に発表した「Preparedness」のWebサイトが更新されている。
新たに部門横断的な「Safety Advisory Group」(安全諮問グループ)を設立する。10月に立ち上げたPreparednessチームは引き続きフロンティアモデル(最先端の既存モデルの機能を超え、さまざまなタスクを実行できる大規模な機械学習モデル)の限界を調べるための技術的作業を推進する。安全諮問グループは、Preparednessチームからの報告書を検討する。
意思決定は経営陣が行うが、取締役会は決定を覆す権利(拒否権)を持つ。
取締役は現在、アダム・ディアンジェロ氏、元SalesforceのCEOで取締役会長に就任するブレット・テイラー氏、経済学者のラリー・サマーズ氏の3人。米Microsoftも議決権のないオブザーバーとして取締役を送り込むことになっている。
なお、フロンティアモデルではない、現行のChatGPTなどの管理は「Safety Systems」チームが行う。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR