人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるか:小林啓倫のエマージング・テクノロジー論考(3/3 ページ)
元OpenAIの元研究員が「『AGI』(汎用人工知能、人間と同程度の知能を持つAIのこと)は27年に実現する」と警鐘を鳴らす論文を発表し、話題になったことをご存じだろうか? AIが人を超える知能を持ったとき、どのようなリスクが考えられるか。
第2に、経済的リスクが挙げられる。AGIや超知能の開発のために巨大な投資が行われ、国家戦略として産業全体が動員されれば、電力やGPUへの需要が急増し、経済的な負担が増加。それは一時的にさまざまな雇用を生むかもしれないが、逆にAGIが多くの職業を自動化することで、大規模な失業が発生する恐れもある。
第3は社会的リスクだ。AGIや超知能は局所的に優れた能力を発揮する一方で、急速な技術進歩に社会が適応できず、不安や反発が広がる可能性がある。また技術を正しく活用できるのが一部の企業や社会層だけだった場合、恩恵を受ける人々とそうでない人々との間で経済的・社会的格差が拡大する恐れがある。
さらにアッシェンブレンナー氏は、国家主体によるAIの開発競争が激化することで、機密情報の漏えいやサイバー攻撃のリスクが増大するという、安全保障上のリスクについても指摘している。
特に彼は現状について、中国や北朝鮮といった権威主義国家と、欧米先進国のような民主主義国家間のAI軍拡競争が起きていると解釈。「主な(おそらく唯一の)希望は、民主主義国家の同盟が、敵対的勢力に対して健全なリードを保っていることである」という強い表現で懸念を示している。
こうした多様なリスクがあるにもかかわらず、現時点では、進化したAIが引き起こす問題に対して、誰が責任を持つのかが曖昧なままとなっている。それを乗り越えるためには、技術的な解決策を開発するだけでなく、政策や倫理面での検討も進めていく必要があるとされている。
“3年後にAGI実現論”への反対意見
アッシェンブレンナー氏は、こうした主張を精緻なロジックとエビデンスに基づいて展開。さまざまな専門家から注目を集めている。しかしその意見が無批判で受け入れられているわけではない。例えば「AIの性能向上がこれまでと同じペースで進む」という前提について、それが消費する資源という観点から疑問が呈されている。
現時点でも、AIの開発と運用には膨大な資源を消費しており、過去4年間に十分なリソースが投じられてきたからといって、今後4年間のさらなる飛躍に必要なリソースが集まるとは限らない。特に最近では、大規模な基盤モデルのトレーニングに必要な学習データ(人間がつくった純粋なコンテンツ)の枯渇が進んでおり、これまで通り性能改善を進めるのが難しくなりつつある。
また環境問題や社会問題に対して、人々からより厳しい視線が注がれるようになっており、国もAI開発だけに力を入れるわけにはいかない。そんな中で「果たしてこれまでのような取り組みが持続可能だろうか?」というわけだ。
そうした疑問を持つ人々は、GPTシリーズのような基盤モデルのトレーニングにおける資源需要の加速が、具体的な利益や肯定的な成果における加速と一致していないと主張している。結果、AGIや超知能の開発は、たとえ潜在的に有益であったとしても、コストを度外視してまで進められるようにはならないだろうと予測している。
単純に、彼が自らの予測能力を過信しているのではないかという指摘もある。彼がOpenAIで過ごした時間は1年半あまりで、まだ20代前半という若さであり、狭い経験から問題を分析してしまっている恐れがある。実際に、AGIや超知能を巡る複雑な問題を単純化してしまっているのではないかという声もあり、彼のシナリオ通りに物事が進むかどうかは未知数だ。
AGI、超知能の登場は避けられない未来か
とはいえ彼の見てきた、OpenAIというAI開発の最前線における技術革新のスピードも、真実の1つの側面といえるだろう。タイミングが遅れたとしても、いずれはAGIや超知能といった技術が実現される可能性は高い。彼の警告に耳を傾け、人間を超える能力を持つAIが生まれたときのリスクに備えておくことは、十分に価値があるはずだ。
解散してしまったとはいえ、OpenAIのスーパーアラインメントチームは、この問題に正面から取り組むものだった。その姿勢はサツケバー氏とライク氏がそれぞれ引継ぎ、彼らは新天地でアラインメント問題への対応を続けている。
また米国の大手金融機関であるシティグループは、最近発表したレポートの中で、企業内でAIのガバナンスに取り組む人々が増加していることを指摘。さらにEUで成立したAI法のように、包括的なAI規制の枠組み整備は、そうした人々にとって追い風となると考えられる。
恐らく私たちに求められているのは、今回のような警告が当たるか当たらないかを考えることよりも、それに対して国や企業、さまざまな専門家たちが打ち出す対応を注視していくことだろう。その中にはスーパーアラインメントチームのように、解散という形で終わる取り組みもあるかもしれない。しかし、そうした経験の積み重ねの中から、AGIや超知能に対して、真に有効なガバナンスの在り方が生まれてくるはずだ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAI退社のサツケバー氏ら、「安全な超知能」目指すAI企業SSI立ち上げ
OpenAIで超知能の制御を目指すチームを統括するも幹部と対立して退社したイリヤ・サツケバー氏が、新たなAI企業Safe Superintelligence(SSI)を立ち上げた。「安全な超知能」の製品化を唯一の目標としている。
OpenAIの現・元従業員ら、AIシステム構築の無謀さと秘密主義を告発
OpenAIとGoogle DeepMindの現従業員、元従業員のグループは、OpenAIを含むAI企業に対し、AIに関する安全性対策の改善と、危険性を報告した従業員の保護を求める書簡を公開した。参加者の1人は「AGI時代に責任ある行動をとるという自信がなくなったため、OpenAIを辞めた」と語った。
OpenAIを「限界点に達した」と退社したライケ氏、競合Anthropicで安全チーム結成へ
OpenAIが安全性を軽視していると批判して退社したヤン・ライケ氏が競合のAnthropic入りし、製品の安全性を監視するチームのトップになる。
OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
OpenAIでAIの安全性に取り組んできたライケ氏が退社に当たって投稿した警鐘に対し、ブロックマン社長がアルトマンCEOと連名の長文をポストした。アルトマン氏は別途、同社の退社合意書について高まる批判に対し「知らなかったが、知っておくべきだった」とポストした。
OpenAI、“スーパーインテリジェンス”の人類の敵化防止を目指す新チーム立ち上げ
OpenAIは、10年以内に人間の知能を超える「スーパーインテリジェンス」が実現すると予測しており、それを制御するシステムを構築するための新チームを立ち上げた。優秀な人材を募集中だ。
