サム・アルトマン氏、「穏やかなシンギュラリティ」を語る
OpenAIのサム・アルトマンCEOが個人のWebサイトで、シンギュラリティは急激な破局ではなく「穏やかな」変化だとの見解を示した。既に超知能への「離陸」は始まっており、知能コストは低下し続けると予測。楽観的な未来を描く一方、AIのアラインメント問題など安全性確保の重要性も強調した。
米OpenAIのCEOであるサム・アルトマン氏は6月10日(現地時間)、個人のWebサイトで、「The Gentle Singularity」と題するコラムを公開した。AIの現在の到達点、今後の進化予測、それが社会にもたらすであろう変化と潜在的な課題について、非常に楽観的な見通しを中心に語ったものだ。
同氏によると、人類は超知能(superintelligence)の構築で既に「事象の地平線」を通過しており、超知能への「離陸」が始まっているという。GPT-4やo3のようなシステムは既に多くの点で人間よりも賢く、これらを利用する人々の生産性を大幅に向上させていると語る。
今後のタイムラインとして、2025年には実際の認知作業を実行できるエージェントが登場し、2026年には「世界はおそらく、新たな洞察を導き出せるAIシステムの到来を目にするだろう」し、2027年には現実世界でタスクを実行するロボットが登場すると予測。この流れで、2030年代には「知能とエネルギーが極めて豊富になり、人間の進歩における根本的な制約が取り払われる可能性がある」という。
アルトマン氏は2030年代の社会について、「本質的に重要な意味では、それほど現代と変わらないかもしれない」としつつ、「それ以外の非常に重要な面では、人類史上かつてないほど劇的に異なる時代となるだろう」と予測する。
技術進歩の自己強化サイクルについても説明し、AIと自動化による波によって世界の富が急速に増大し、知能コストは電気代程度に低下すると語った。同氏は具体例として、ChatGPTでの1クエリに必要な電力は現在、高効率電球の数分間分の電力量に相当する0.34Wh程度だと紹介した。
同氏にとってシンギュラリティとは、「驚異的だったものがいつしか当たり前になり、その次にはあって当然の前提条件になる」という連続的なプロセスであり、急激で理解不能な破局というよりは穏やかで馴染みやすい変化という。
ただし、手放しで楽観的で明るい未来を夢想しているわけではなく、AIの安全性と社会的な受容の問題に取り組む必要性を強調し、技術面・社会面の両方でAIの安全課題を解決することが重要だともしている。
例えばアラインメント問題(AIの目標や行動を人類の長期的な利益や価値観と整合させること)で、AIが確実に人類の望む方向に沿って行動するよう保証する技術を確立することが急務だと主張する。
アルトマン氏は、「適切に対応すれば、副作用を最小化しつつシンギュラリティの恩恵を最大化できる」とし、「来たるべき超知能時代を恐れるのではなく、賢明に備え、設計すれば素晴らしい未来になる」と語る。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「LRM(大規模推論モデル)の推論能力に限界」──Appleが論文発表
Appleの研究者らは論文で、LRM(大規模推論モデル)の推論能力の限界を指摘した。LRMは真の論理的推論ではなく、データに基づくパターンマッチングに依存しているという。問題の複雑さが一定の閾値を超えると精度が崩壊し、汎化能力に根本的な限界があることを示唆した。
「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表
Appleの研究者らは、「LLMにおける数学的推論の限界を理解する」という論文を発表した。OpenAIのGPT-4oやo1-previewなどのLLMは、他のLLMと比べて高性能だが、真の推論には課題があるとしている。
OpenAIやDeepMindのCEOやトップ研究者ら、「AIによる人類絶滅リスク」警鐘声明に署名
著名なAI研究者、エンジニア、CEOらが「AIによる絶滅の危険性を軽減することを世界的優先事項にすべき」という声明に署名した。署名者にはヒントン博士、OpenAI、DeepMind、AnthropicのCEOなどがいる。Metaのルカン博士やマスク氏、MicrosoftやAmazon、IBMは署名していない。
OpenAIとApollo Research、「o1」は自分の目的のために嘘をつくと報告
OpenAIとApollo Researchは、LLMの「o1」に関する懸念を報告した。Apolloは、テストの結果o1は他のLLMモデルよりも不誠実な振る舞いが多いと結論付けた。
