OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
OpenAIで先日退社したサツケバー氏とともにAIの安全性に取り組んできたチームのトップが退社する。「安全性が輝かしい製品開発の後回し」になっていると警鐘を鳴らした。
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。
「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと中核的優先事項についてずっと同意できず、限界点に達した」という。
Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた。サツケバー氏は14日に退社を発表している。
ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。
OpenAIは昨年2月、AGI(Artificial General Intelligence;汎用人工知能)を「一般的に人間より賢いAIシステム」として、リスク軽減策について説明した。Superalignmentチーム結成はその一環だった。
ライケ氏はOpenAIに対し、「AGIの重要さを実感してください。AGIにふさわしい厳粛な態度で臨んでください」「私も世界中も、あなたたちを信頼しています」というメッセージを残した。
ライケ氏のポストの数時間後、サム・アルトマンCEOは「ライケ氏が去るのは非常に残念だ。彼の言う通り、やるべきことはまだたくさんある。数日中により長いポストでそれについて説明する」とポストした。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAIでアルトマンCEO解任騒動の首謀者の1人で共同創業者のサツケバー氏が退社へ
OpenAIでの昨年11月のCEO解任騒動の首謀者とみられる共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が退社する。「個人的に意味のあるプロジェクトを始める」としている。
OpenAIを辞任したブロックマン社長、アルトマンCEO解任の顛末をポスト
OpenAを辞任したブロックマン社長が、アルトマンCEO解任について「知っていること」をXにポストした。取締役会長だった自身以外の全取締役がアルトマン氏にGoogle Meetで解任を言い渡したという。
OpenAI、“スーパーインテリジェンス”の人類の敵化防止を目指す新チーム立ち上げ
OpenAIは、10年以内に人間の知能を超える「スーパーインテリジェンス」が実現すると予測しており、それを制御するシステムを構築するための新チームを立ち上げた。優秀な人材を募集中だ。
OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
会話型AIサービス「ChatGPT」を手掛けるOpenAIは、AGI(Artificial General Intelligence;汎用人工知能)実現のロードマップを公開した。同社はAGIを「一般的に人間より賢いAIシステム」と定義する。AGIが世界に害を及ぼさないよう、公開協議が必要としている。
