OpenAI、“スーパーインテリジェンス”の人類の敵化防止を目指す新チーム立ち上げ
OpenAIは、10年以内に人間の知能を超える「スーパーインテリジェンス」が実現すると予測しており、それを制御するシステムを構築するための新チームを立ち上げた。優秀な人材を募集中だ。
米OpenAIは7月5日(現地時間)、近い将来登場すると予測される人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指し、新チーム「Superalignment」を立ち上げたと発表した。
サム・アルトマンCEOは5月には、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏との連名で、AIの国際規制機関の立ち上げを提案している。
新チームを率いるのは、サツケバー氏とテクニカルスタッフのヤン・ライク氏。2人は公式ブログで「超知能は人類がこれまでに発明した中で最も影響力のあるテクノロジーとなる」が、その力は「人類の無力化、さらには人類絶滅につながる可能性がある」と警告し、そうした超知能が10年以内に実現すると信じていると語った。
現時点では、超知能を制御し、AIの不正行為を防ぐソリューションはなく、人間がAIを確実に監視することはできないという。
その上で、この問題解決のためには、「ほぼ人間レベルの“automated alignment researcher”を構築する」必要があると主張する。このシステムを調整するには、スケーラブルなトレーニング方法を開発し、モデルを検証し、アラインメント全体をストレステストする必要があるという。
新チームは今後4年間、OpenAIが確保したコンピューティングの20%をこの取り組みに充てる計画だ。チームはこの取り組みに参加する優秀な研究者やエンジニアを募集している。
関連記事
- OpenAI、ロンドンオフィス開設へ 「AGI開発を推進する」とアルトマンCEO
OpenAIは初の海外拠点としてロンドンにオフィスを開設する。アルトマンCEOは「世界クラスの人材を惹きつけ、AGIの開発と政策におけるイノベーションを推進する機会」と語った。 - OpenAIやDeepMindのCEOやトップ研究者ら、「AIによる人類絶滅リスク」警鐘声明に署名
著名なAI研究者、エンジニア、CEOらが「AIによる絶滅の危険性を軽減することを世界的優先事項にすべき」という声明に署名した。署名者にはヒントン博士、OpenAI、DeepMind、AnthropicのCEOなどがいる。Metaのルカン博士やマスク氏、MicrosoftやAmazon、IBMは署名していない。 - OpenAIのアルトマンCEO、“スーパーインテリジェンス”の国際規制機関立ち上げを提唱
OpenAIは、将来的にはAI開発を監視する国際規制機関が必要になると提唱した。10年以内にAIはAIGを超えるsuperintelligence(超知能)になるという。ただし、現行のプロジェクトを規制すべきではないとも。 - OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
会話型AIサービス「ChatGPT」を手掛けるOpenAIは、AGI(Artificial General Intelligence;汎用人工知能)実現のロードマップを公開した。同社はAGIを「一般的に人間より賢いAIシステム」と定義する。AGIが世界に害を及ぼさないよう、公開協議が必要としている。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.