メディア
ITmedia AI+ >

人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるか小林啓倫のエマージング・テクノロジー論考(3/3 ページ)

» 2024年06月28日 10時00分 公開
[小林啓倫ITmedia]
前のページへ 1|2|3       

 第2に、経済的リスクが挙げられる。AGIや超知能の開発のために巨大な投資が行われ、国家戦略として産業全体が動員されれば、電力やGPUへの需要が急増し、経済的な負担が増加。それは一時的にさまざまな雇用を生むかもしれないが、逆にAGIが多くの職業を自動化することで、大規模な失業が発生する恐れもある。

 第3は社会的リスクだ。AGIや超知能は局所的に優れた能力を発揮する一方で、急速な技術進歩に社会が適応できず、不安や反発が広がる可能性がある。また技術を正しく活用できるのが一部の企業や社会層だけだった場合、恩恵を受ける人々とそうでない人々との間で経済的・社会的格差が拡大する恐れがある。

 さらにアッシェンブレンナー氏は、国家主体によるAIの開発競争が激化することで、機密情報の漏えいやサイバー攻撃のリスクが増大するという、安全保障上のリスクについても指摘している。

 特に彼は現状について、中国や北朝鮮といった権威主義国家と、欧米先進国のような民主主義国家間のAI軍拡競争が起きていると解釈。「主な(おそらく唯一の)希望は、民主主義国家の同盟が、敵対的勢力に対して健全なリードを保っていることである」という強い表現で懸念を示している。

 こうした多様なリスクがあるにもかかわらず、現時点では、進化したAIが引き起こす問題に対して、誰が責任を持つのかが曖昧なままとなっている。それを乗り越えるためには、技術的な解決策を開発するだけでなく、政策や倫理面での検討も進めていく必要があるとされている。

“3年後にAGI実現論”への反対意見

 アッシェンブレンナー氏は、こうした主張を精緻なロジックとエビデンスに基づいて展開。さまざまな専門家から注目を集めている。しかしその意見が無批判で受け入れられているわけではない。例えば「AIの性能向上がこれまでと同じペースで進む」という前提について、それが消費する資源という観点から疑問が呈されている。

 現時点でも、AIの開発と運用には膨大な資源を消費しており、過去4年間に十分なリソースが投じられてきたからといって、今後4年間のさらなる飛躍に必要なリソースが集まるとは限らない。特に最近では、大規模な基盤モデルのトレーニングに必要な学習データ(人間がつくった純粋なコンテンツ)の枯渇が進んでおり、これまで通り性能改善を進めるのが難しくなりつつある。

 また環境問題や社会問題に対して、人々からより厳しい視線が注がれるようになっており、国もAI開発だけに力を入れるわけにはいかない。そんな中で「果たしてこれまでのような取り組みが持続可能だろうか?」というわけだ。

 そうした疑問を持つ人々は、GPTシリーズのような基盤モデルのトレーニングにおける資源需要の加速が、具体的な利益や肯定的な成果における加速と一致していないと主張している。結果、AGIや超知能の開発は、たとえ潜在的に有益であったとしても、コストを度外視してまで進められるようにはならないだろうと予測している。

 単純に、彼が自らの予測能力を過信しているのではないかという指摘もある。彼がOpenAIで過ごした時間は1年半あまりで、まだ20代前半という若さであり、狭い経験から問題を分析してしまっている恐れがある。実際に、AGIや超知能を巡る複雑な問題を単純化してしまっているのではないかという声もあり、彼のシナリオ通りに物事が進むかどうかは未知数だ。

AGI、超知能の登場は避けられない未来か

 とはいえ彼の見てきた、OpenAIというAI開発の最前線における技術革新のスピードも、真実の1つの側面といえるだろう。タイミングが遅れたとしても、いずれはAGIや超知能といった技術が実現される可能性は高い。彼の警告に耳を傾け、人間を超える能力を持つAIが生まれたときのリスクに備えておくことは、十分に価値があるはずだ。

 解散してしまったとはいえ、OpenAIのスーパーアラインメントチームは、この問題に正面から取り組むものだった。その姿勢はサツケバー氏とライク氏がそれぞれ引継ぎ、彼らは新天地でアラインメント問題への対応を続けている。

 また米国の大手金融機関であるシティグループは、最近発表したレポートの中で、企業内でAIのガバナンスに取り組む人々が増加していることを指摘。さらにEUで成立したAI法のように、包括的なAI規制の枠組み整備は、そうした人々にとって追い風となると考えられる。

シティグループのレポート

 恐らく私たちに求められているのは、今回のような警告が当たるか当たらないかを考えることよりも、それに対して国や企業、さまざまな専門家たちが打ち出す対応を注視していくことだろう。その中にはスーパーアラインメントチームのように、解散という形で終わる取り組みもあるかもしれない。しかし、そうした経験の積み重ねの中から、AGIや超知能に対して、真に有効なガバナンスの在り方が生まれてくるはずだ。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ