米OpenAIは5月22日(現地時間)、「スーパーインテリジェンスのガバナンス」というタイトルの公式ブログを公開した。サム・アルトマンCEO、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏の連名で、AIの国際規制機関の立ち上げを提案している。
このブログでは、AIが10年以内に専門家のスキルレベルを超え、高度な生産活動を行う可能性について述べている。そうした将来のAIをAGI(Artificial General Intelligence;汎用人工知能)を超えるsuperintelligence(超知能)と呼び、人類が過去に対処してきたこれまでの技術よりも強力で、潜在的なメリットとリスクが大きいと語る。
そのため、超知能の開発には調整、国際的な監視、安全にするための技術的な能力が必要だとしている。
AIを手掛ける企業自身が責任ある行動をとるべきであることは当然だが、最終的には国際原子力機関(IAEA)のような国際組織が必要だと主張する。IAEAは、核兵器の拡散を防ぎ、原子力技術の平和目的での安全な利用を守る目的で設立された原子力分野の世界的機関(国連広報センターより)。
ただし、超知能にいたらない現在のAI関連プロジェクトを規制することは重要ではないとも主張。
「超知能の創造の利点は非常に大きく、本質的にわれわれが進んでいる方向の一部だ。これを阻止するには世界的な監視体制のようなものが必要だ。それが機能するかどうかは保証されていないので、正しく理解する必要がある」。
米バイデン政権、OpenAIなどAI関連4社のCEOを招き「責任あるイノベーション」促す
“AIのゴッドファーザー”ことヒントン博士、Googleを退社してAI開発に警鐘
OpenAI・アルトマンCEOのプレゼン資料が公開 自民党に何を語ったか
OpenAIのアルトマンCEO、日本に対する7つの約束 「日本関連の学習ウエイト引き上げ」
OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のためにCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR