AIの明日は「失望」or「希望」?──Appleとサム・アルトマンの“2つの未来予測” その意味を考える:小林啓倫のエマージング・テクノロジー論考(3/3 ページ)
6月、AIの未来に関する2つの予測がされた。米Appleの研究者らが執筆した論文と、米OpenAIのサム・アルトマンCEOのブログ記事だ。今回はこの2つの主張を取り上げ、その意義について考えてみたい。
Appleとサム・アルトマン、2つの未来予測の意義
さて、ほぼ同時期に「AI」に対する悲観論と楽観論が、それも業界で注目される企業と人物から出されたということで、これらの予測を対立するものとして捉える向きもある。しかしここまでの解説から分かるように、2つの主張は決して真正面からぶつかるものではない。
The Illusion of Thinkingは、「AGIに至る道ではないか」として注目され、最近各社が競うように開発を進めている推論モデルが、実は期待に応えられるような技術ではないのではないかと指摘した論文だ。
一方でThe Gentle Singularityは、確かにアルトマンCEOのポジショントーク、つまりAIの高度化を進める自分たちへの支持を呼び掛けるものかもしれないが、既存のAIモデルが実利を生み出しつつある現状を指摘する内容となっている。
現在の「推論」モデルは、人間のようにあらゆるタスクをこなせるという意味での「思考している」とはいえないかもしれない。しかし、そうでなかったとしても、特定のタスクや領域、そしてユースケースにおいては、AIは人間を超えつつある。
つまりこの2つの論文は、異なる評価軸(「LRMは本当に推論しているといえるか」と「シンギュラリティは徐々に、緩やかなスピードで始まっているのではないか」)から、否定と肯定というそれぞれの結論を下しているにすぎない。
そもそも2つの論文は、お互いを意識して書かれたわけではないのだから当然だ。しかし両方を同時に取り上げるのが無意味かというと、そうとも言い切れないのではないだろうか。
何を評価軸に置くかは別にして、いまAIが多方面に変革をもたらすほど進化しつつあるということを否定する人はいないだろう。人間のように「考えて」はいないかもしれないが、80点の精度で翻訳をし、80点の精度でコードを書く。乱暴に言ってしまえば、それが現在のAIだ。
その現状を見て、「いよいよAIは人間のように考えられるようになり、それを人間よりも上手にできるようになった。人間の社会は終焉するか、少なくとも多くの人々が職を失うに違いない」と考えるのも間違いなら、「AIは考えているふりをしているだけで、人間のように考えているわけではない。AIで仕事やビジネス、業界を変革するなどできっこない」と考えるのも間違いだろう。
しかし昨今のAIブーム、あるいは生成AIブーム、AIエージェントブームにより、その両極端の意見が出ているのが現状だ。それが行き過ぎたことで、過度な楽観論と冷静な科学的検証のバランスを取ろうという反動によって2つの主張が生まれたのが、25年6月というタイミングだったのではないだろうか。
少々言いすぎてしまったかもしれないが、いまのAIがどこまで革命的な変化をもたらすのかという点について、異なる視点から異なる主張が行われているのは事実だ。そんな混沌とした状況にいまの私たちが置かれていることを、2つの主張は示しているのだろう。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Apple、Siri最新版に他社のAIモデルの活用検討 AnthropicやOpenAIと協議か
米Appleは、音声アシスタント「Siri」の最新版に利用する人工知能(AI)技術について、自社製ではなく米Anthropicもしくは米OpenAIのモデルを検討している。ブルームバーグが30日、事情に詳しい関係者の話として伝えた。
サム・アルトマン氏、「穏やかなシンギュラリティ」を語る
OpenAIのサム・アルトマンCEOが個人のWebサイトで、シンギュラリティは急激な破局ではなく「穏やかな」変化だとの見解を示した。既に超知能への「離陸」は始まっており、知能コストは低下し続けると予測。楽観的な未来を描く一方、AIのアラインメント問題など安全性確保の重要性も強調した。
OpenAI、AIによる生物兵器開発リスクに警鐘
OpenAIは、AIが悪用され生物兵器開発につながる深刻なリスクがあると警告した。同社の将来のAIモデルは専門知識のない人物による生物学的脅威の作成を可能にする恐れがあるという。有害リクエストの拒否や専門家との連携、疑わしい行為の監視などの多角的な対策を講じ、社会全体の防御力向上も提唱している。
「LRM(大規模推論モデル)の推論能力に限界」──Appleが論文発表
Appleの研究者らは論文で、LRM(大規模推論モデル)の推論能力の限界を指摘した。LRMは真の論理的推論ではなく、データに基づくパターンマッチングに依存しているという。問題の複雑さが一定の閾値を超えると精度が崩壊し、汎化能力に根本的な限界があることを示唆した。
AppleはAIで遅れているのか? Google・OpenAIとは異なる“独自路線”ゆえのジレンマ
米Appleが開発者会議WWDC 2025で発表したのは派手なAI機能ではなく、UIデザインの大幅刷新だった。「Liquid Glass」と呼ばれる新モチーフでユーザー体験を向上させる一方、Apple Intelligenceは開発遅延が続く。AI競争で後れを取るAppleだが、独自の戦略で巻き返しを図る。