OpenAIのアルトマンCEO、“スーパーインテリジェンス”の国際規制機関立ち上げを提唱
OpenAIは、将来的にはAI開発を監視する国際規制機関が必要になると提唱した。10年以内にAIはAIGを超えるsuperintelligence(超知能)になるという。ただし、現行のプロジェクトを規制すべきではないとも。
米OpenAIは5月22日(現地時間)、「スーパーインテリジェンスのガバナンス」というタイトルの公式ブログを公開した。サム・アルトマンCEO、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏の連名で、AIの国際規制機関の立ち上げを提案している。
このブログでは、AIが10年以内に専門家のスキルレベルを超え、高度な生産活動を行う可能性について述べている。そうした将来のAIをAGI(Artificial General Intelligence;汎用人工知能)を超えるsuperintelligence(超知能)と呼び、人類が過去に対処してきたこれまでの技術よりも強力で、潜在的なメリットとリスクが大きいと語る。
そのため、超知能の開発には調整、国際的な監視、安全にするための技術的な能力が必要だとしている。
AIを手掛ける企業自身が責任ある行動をとるべきであることは当然だが、最終的には国際原子力機関(IAEA)のような国際組織が必要だと主張する。IAEAは、核兵器の拡散を防ぎ、原子力技術の平和目的での安全な利用を守る目的で設立された原子力分野の世界的機関(国連広報センターより)。
ただし、超知能にいたらない現在のAI関連プロジェクトを規制することは重要ではないとも主張。
「超知能の創造の利点は非常に大きく、本質的にわれわれが進んでいる方向の一部だ。これを阻止するには世界的な監視体制のようなものが必要だ。それが機能するかどうかは保証されていないので、正しく理解する必要がある」。
関連記事
- 米バイデン政権、OpenAIなどAI関連4社のCEOを招き「責任あるイノベーション」促す
米バイデン政権は、Google、OpenAI、Microsoft、AnthopicのCEOをホワイトハウスに招集。AI開発に関する「率直で建設的な議論が行われた」としている。 - “AIのゴッドファーザー”ことヒントン博士、Googleを退社してAI開発に警鐘
“AIのゴッドファーザー”の二つ名を持つジェフリー・ヒントン博士がGoogleを辞めた。New York Timesのインタビューで「Googleを辞めたので、AIのリスクについて自由に話せるようになった」と語った。企業がAIシステムを改善するにつれて、危険は増大すると警鐘を鳴らす。 - OpenAI・アルトマンCEOのプレゼン資料が公開 自民党に何を語ったか
米OpenAIのサム・アルトマンCEOが自民党本部での会合で使ったプレゼン資料がネット上で閲覧可能になった。会合に出席した塩崎彰久衆議院議員が公開した。 - OpenAIのアルトマンCEO、日本に対する7つの約束 「日本関連の学習ウエイト引き上げ」
ChatGPTを開発した米OpenAIのサム・アルトマンCEOが4月10日来日し、「日本関連の学習データのウェイト引き上げ」など、日本に関する7つの提案を行った。 - OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
会話型AIサービス「ChatGPT」を手掛けるOpenAIは、AGI(Artificial General Intelligence;汎用人工知能)実現のロードマップを公開した。同社はAGIを「一般的に人間より賢いAIシステム」と定義する。AGIが世界に害を及ぼさないよう、公開協議が必要としている。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.