OpenAI退社のサツケバー氏ら、「安全な超知能」目指すAI企業SSI立ち上げ
OpenAIで超知能の制御を目指すチームを統括するも幹部と対立して退社したイリヤ・サツケバー氏が、新たなAI企業Safe Superintelligence(SSI)を立ち上げた。「安全な超知能」の製品化を唯一の目標としている。
米OpenAIの共同創業者でチーフサイエンティストだったイリヤ・サツケバー氏は6月19日(現地時間)、「安全な超知能」を目指す新たなAI企業Safe Superintelligence(SSI)の立ち上げを発表した。安全な超知能を「唯一の目標かつ唯一の製品」として掲げる。
サツケバー氏はOpenAIで、人間より賢いAI、超知能の制御を目指すSuperalignmentチームをヤン・ライケ氏と共に統括していたが、5月に退社した。2人は、AIの安全性への取り組み方をめぐって幹部と対立していたとみられる。ライケ氏は退社の際、OpenAIでは「安全性が輝かしい製品の開発より後回しになっている」とXへのポストで語った。ライケ氏はOpenAIの競合である米Anthropicに入社した。
サツケバー氏はSuperalignmentチーム立ち上げの際、ライケ氏との共著で超知能が10年以内に登場するが、それを制御するための研究が必要になるというブログを公開している。
SSIはOpenAIとは異なり、ストレートな営利団体だ。「安全性を常に最優先にしながら、可能な限り迅速に機能を進化させていく予定だ。こうすることで、安心して規模を拡大することができる。一点に集中しているため、管理費や製品サイクルに気を取られることはない。また、われわれのビジネスモデルでは、安全性、セキュリティ、進歩はすべて、短期的な商業的プレッシャーから隔離されている」という。
資金調達方法などについては不明だ。立ち上げの声明文には、サツケバー氏の他、OpenAIを6月に退社した元テクニカルスタッフのダニエル・レヴィ氏と、米Y CombinatorでAIプログラムなどを立ち上げた起業家、投資家のダニエル・グロス氏が名を連ねる。
カリフォルニア州パロアルトとイスラエルのテルアビブに拠点を置き、「優秀なエンジニアを採用する力がある」として、人材を募集している。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAI、「安全およびセキュリティ委員会」に元NSA長官のポール・ナカソネ氏
OpenAIは、元NSA長官兼サイバー軍司令官のポール・ナカソネ氏を8人目の取締役に迎えた。同氏はOpenAIが最近設立した「安全およびセキュリティ委員会」にも参加する予定だ。
OpenAIを「限界点に達した」と退社したライケ氏、競合Anthropicで安全チーム結成へ
OpenAIが安全性を軽視していると批判して退社したヤン・ライケ氏が競合のAnthropic入りし、製品の安全性を監視するチームのトップになる。
OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
OpenAIでAIの安全性に取り組んできたライケ氏が退社に当たって投稿した警鐘に対し、ブロックマン社長がアルトマンCEOと連名の長文をポストした。アルトマン氏は別途、同社の退社合意書について高まる批判に対し「知らなかったが、知っておくべきだった」とポストした。
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
OpenAIで先日退社したサツケバー氏とともにAIの安全性に取り組んできたチームのトップが退社する。「安全性が輝かしい製品開発の後回し」になっていると警鐘を鳴らした。
OpenAIでアルトマンCEO解任騒動の首謀者の1人で共同創業者のサツケバー氏が退社へ
OpenAIでの昨年11月のCEO解任騒動の首謀者とみられる共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が退社する。「個人的に意味のあるプロジェクトを始める」としている。
OpenAIを辞任したブロックマン社長、アルトマンCEO解任の顛末をポスト
OpenAを辞任したブロックマン社長が、アルトマンCEO解任について「知っていること」をXにポストした。取締役会長だった自身以外の全取締役がアルトマン氏にGoogle Meetで解任を言い渡したという。
炭化したパピルス巻物内の単語をAIモデルで解読 「ベスビオ火山チャレンジ」で初の賞金
ポンペイの火山噴火で炭化したパピルスの巻物を解読するコンテストで、単語が初めて解読された。パピルスの3D画像や断片画像と、それらでトレーニングした機械学習モデルをオープンソース化したこのコンテストは3月にスタートしたものだ。

