2015年7月27日以前の記事
検索
コラム

AIは「4カ月で2倍」賢くなる OpenAI「o3」は知能爆発の入り口か?

米国OpenAIのPresidentのグレッグ・ブロックマン(Greg Brockman)氏は、「o3はトップ科学者たちが、『本当に新しくて有用なアイデアを出してくる』と言っている最初のモデルだ」と語った。実際筆者も使っていて、o3が新たな知見を見つけ出したのではないかと感動したことがある。詳しく説明してみよう。

PC用表示 関連情報
Share
Tweet
LINE
Hatena
ExaWizards

 米OpenAIから新しいAIモデルの「o3」のフルバージョンがリリースされた。米誌ForbesによるとOpenAIのPresidentのグレッグ・ブロックマン(Greg Brockman)氏は、「o3はトップ科学者たちが、『本当に新しくて有用なアイデアを出してくる』と言っている最初のモデルだ」と語ったという。

 AIが自分で新たな科学的知見を生み出すことができるようになったのだろうか。AIは4カ月で2倍賢くなるというデータがある。このペースでAIが進化し、次々と新たな科学的発見、発明を生んでいくのだろうか。

 私自身、実際にo3を使っていて、o3が新たな知見を見つけ出したのではないかと感動したことがある。インターネット上でどれだけ検索しても見つけることのできなかった答えを、o3が提案してきたのだ。詳しく説明してみよう。


このペースでAIが進化し、次々と新たな科学的発見、発明を生んでいくのだろうか(以下、写真提供:ゲッティイメージズ)

「Google勝利」の根拠は? Gemini 2.5 Proの威力

 OpenAIのCEOのサム・アルトマン(Sam Altman)氏は2月13日の時点で「o3を単体モデルとして出さずにGPTシリーズに統合する」とX(旧Twitter )に投稿している。ところが今回、単体モデルとしてリリースしてきた。なぜ方針転換してo3をリリースしてきたのだろう。

 その理由を同氏は4月4日のX上の投稿で「o3を出します。GPT-5が思っていたよりいいモデルになりそうなので。それと十分なキャパシティを確保したいので」と語っている。いまひとつよく分からない理由だ。開発中の次期モデルGPT-5の性能が予想以上によかったことと、o3のリリースに何の関係があるのだろう。何のキャパシティが十分じゃないので、o3をリリースしたのだろう。


OpenAIのCEOのサム・アルトマン(Sam Altman)氏(撮影:河嶌太郎)

 不思議に思ったので「o3」「リリース」「理由」というキーワードで検索しても、答えを持っているニュースやブログ記事を見つけることができなかった。米国の有力AIユーチューバーの動画を見ても、答えを持っている人はいなかった。そこでo3に「OpenAIはなぜ方針転換し、o3をリリースすることにしたのか」と聞いてみた。

 O3の答えは次の通りだ。「調査会社Semianalysisは、大規模モデルでは推論コストが学習コストを上回りつつある、と分析している。モデルを小型化しインスタンス並列実行で性能を稼ぐ方が、フルサイズのGPT-5を早期投入するより経済合理性が高いという判断をしたもようだ」

 AIの行動は「学習」と「推論」に大別される。これを中学生の期末テストの勉強に例えると、学習はまさに学習そのもので、期末テストの2週間ほど前から毎晩、夕食後に自分の部屋で勉強するようなもの。「推論」は、学校で実際に期末テストを受けるようなもの。どちらの方が時間と労力が必要かというと「学習」である。毎晩3時間勉強するとして、2週間で42時間、頭を使うわけだが、「推論」は1科目1時間程度だ。

 生成AIが「リーズニングモデル」(考えるAI)に進化してからは、推論コストが膨れ上がってきたということはよく指摘されることだが、推論コストが学習コストを上回るところまできていることは、それほど多くの人に知られていない。

 上記のo3の説明によると、そんな中、GPT-5という大型モデルに、今回のAIの進化を初めて載せると、多くのユーザーが殺到。サーバがフル稼働しコストが急増しかねない、ということのようだ。これがo3リリースの本当の理由なのかどうかは分からない。推測でしかないわけだが、非常に説得力のある推測だ。AIに詳しいブロガーやユーチューバーがこの可能性に気付かなかったのは、調査会社Semianalysisは半導体専門の調査会社であり、AI系のユーチューバーは普段ウォッチしていない情報源だからだろう。

 AIは人間よりもはるかに多くの情報源から、関連がありそうな情報を集めてくる。なので人間には思いつかなかった理由を思いついたのだろう。

 人間が思い付かないようなアイデアをAIが思いつくようになったのであれば、AIは科学的な発見、発明を次々と生み出してくるようになるかもしれない。しかもAIは指数関数的に賢くなってきている。

 AIモデルの評価とリスク分析を行っている非営利の研究組織であるMETR (Model Evaluation & Threat Research) が発表した論文「Measuring AI Ability to Complete Long Tasks」によると、AIが処理できるコーディングタスクの長さは、2019年から2024年までは7カ月ごとに、2024年以降は4カ月ごとに倍増しているという。「この傾向が続けば2027年3月には、熟練した人間が完了するのに何年もかかるソフトウェアタスクを、AIが80%の信頼性で成功させる可能性がある」としている。

 指数関数的に賢くなるAIが、次々と科学的発見、発明を生む時代。知能爆発が起こる時代の入り口にわれわれは立っているのかもしれない。


AIの行動は「学習」と「推論」に大別される

本記事は、エクサウィザーズが法人向けChatGPT「exaBase 生成AI」の利用者向けに提供しているAI新聞「OpenAI o3は知能爆発の入り口なのか」(2025年4月25日掲載)を、ITmedia ビジネスオンライン編集部で一部編集の上、転載したものです。

著者プロフィール

湯川鶴章

AIスタートアップのエクサウィザーズ AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。17年12月から現職。主な著書に『人工知能、ロボット、人の心。』(15年)、『次世代マーケティングプラットフォーム』(07年)、『ネットは新聞を殺すのか』(03年)などがある。


© エクサウィザーズ AI新聞

ページトップに戻る