メディア
ITmedia AI+ >

人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるか小林啓倫のエマージング・テクノロジー論考(2/3 ページ)

» 2024年06月28日 10時00分 公開
[小林啓倫ITmedia]

 彼はこの論文において「予測には大きな不確実性を伴う」としながらも、AGIはいまからたった3年後の27年に実現される可能性があると指摘。さらにAGIがAI研究を自動化して発展させることで、AGI登場から数年以内に、超知能が登場すると考えられると予測している。

 この論文の内容について、少し見ていこう。まずアッシェンブレンナー氏は、AGIについて次のように形容している。

最近は多くの人々が、AGIを単に「非常に優れたチャットbot」のようなものとして、下方修正して定義しているように見える。私が言うAGIとは、私や私の友人の仕事を完全に自動化できるシステム、つまりAI研究者やエンジニアの仕事を完全にこなせるようなAIシステムのことを指す。

 つまりAGIとは、人間とほぼ同程度の能力を持つAIということだ。いくら最近の生成AIが驚くほど高性能になっているとしても、さすがに数年で私たちの知性に肩を並べるほどになるとは考えづらいが、アッシェンブレンナー氏はどのような根拠でこの予測を行っているのだろうか?

 彼が主に挙げているのは、当然ながら技術的な要因だ。彼は論文の冒頭において、以下のように印象的な表現で、自らが正しい技術的トレンドを見ることのできる立場にいると宣言している。

やがて世界は目覚めるだろう。しかし今のところ「状況認識」を持っているのは、サンフランシスコやAI研究所にいる数百人程度の人々にすぎない。運命の不思議な力によって、私はその中の1人となった。数年前、そうした人々はクレイジーだと嘲笑されていたが、彼らはトレンドの流れを信じ、それによって過去数年間のAIの進化を正しく予想することができた。

 ではどのような技術的トレンドが、3年後のAGI実現をもたらすのか。彼によれば、それは計算能力の飛躍的向上と、アルゴリズムの効率化、そしてモデルの「アンホブリング」(制約解除)だ。

 AIの急速な進化により、いまやムーアの法則を超えるペースでAI開発への投資が急増しており、今後数年間で世界全体の計算能力がさらに向上することが見込まれている。当然ながらそれにより、より高度なAIモデルの学習が可能になる。またアルゴリズム自体が効率化することで、同じ性能を達成するために必要な計算量が削減される。この効率化は計算能力の向上と相まって、AIの性能向上に大きく貢献すると予想されている。

 そこに加わるのが、AIモデルのアンホブリングである。これはAIの潜在能力をさらに引き出す仕組みや技術を指す言葉として使われており、例えば人間のフィードバックによる強化学習(RLHF)や思考連鎖(CoT)などの技術がある。それがAGI実現への重要な要素となると指摘している。

 さらにアッシェンブレンナー氏は、産業界の大規模投資もAGI実現の追い風として挙げている。AIブームの高まりにより、大規模データセンターの建設やGPUの改善といった取り組みへの投資が増え、より強力なAI開発のためのリソースが拡大している。これらのトレンドが、過去4年間(GPT-2からGPT-4まで)でAIが示した性能向上と同レベルの進化を、今後4年間で実現すると彼は指摘している。

超知能の登場で懸念される“3つのリスク”

 こうして登場した人間レベルの知性を持つAGIは、必然的にAI研究に投入され、無数のAGIがAI研究を自動的に行うようになる。その結果、アルゴリズムの改善が効率化し「通常10年かかる進歩が1年で達成される」とアッシェンブレンナー氏は予測する。

 結果、AI技術は指数関数的な成長を遂げるようになり、AGI誕生から数年以内に、人間レベルから超人間レベルの知能システムへと急速に移行するだろうというのが彼の見立てだ。こうしたAGI、そして超知能のリスクについて、彼は主に3つの点を指摘している。

 まずは技術的リスクだ。核ミサイルや原発など、既に私たちの手には、その制御が失われれば人類の存亡すら危うくしかねないテクノロジーが握られている。超知能もそうした「確実な制御が必要不可欠な技術」の1つといえるだろう。

 しかし人間よりもはるかに賢いAIシステムを信頼性を持って制御する技術的問題は、未解決であり(それこそOpenAIのスーパーアラインメント・チームが設立された目的だった)、AIの爆発的な進化によって、制御が失われる恐れがある。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ