「GPT-5」の光と影――革新と混乱の「新世代ChatGPT」 AGIへの大きな一歩だが未成熟な面も本田雅一のクロスーバーデジタル(2/3 ページ)

» 2025年08月13日 12時00分 公開
[本田雅一ITmedia]

高性能な「GPT-5」 しかし未成熟な「ChatGPT」

 しかし、実際にGPT-5を使い始めてみると、華々しい発表内容とは裏腹に、時として困惑する現実も待ち受けていた。

 確かに、GPT-5を使うと目を見張る体験も数多くできる。例えばプログラミングにおいて、複雑な依存関係の競合問題を体系的に調査し、「yarn why」コマンドを駆使して根本原因を特定し、精密な修正をこなすなど、デバッグにおける実用性の高さが話題だ。「o3とCursor、Claude Code + Opus 4では解決できなかった課題を、GPT-5が一発で解決した」といった驚きの声は少なくない。

 文章生成でも、適切な指示を与えた際の「洞察の深さ」と「表現の豊かさ」は、確実に前世代を上回る。「推論モード」を使えば物理学の複雑な問題を迅速かつ正確に解けるし、テーマを与えると的確な学習計画や課題リストを作成してみせる。

 マルチモーダル対応のAIモデルが統合されたことで、コード開発とUIモックアップ、モジュール全体の構成を示す設計図面を同時に処理し、必要なら画像生成やネット上から必要な画像、動画などを引用することもある。

テスト段階でも高評価 GPT-5の性能は、テスト段階でも評価が高い

 ところが、使い始めるとすぐにGPT-5には看過できない問題があることに気付いた。

 最も顕著だったのは、驚くほどに“拙速”かつ“怠惰”な振る舞いが目立つようになってしまったことだ。例えば基本的な数え問題で「blueberry」の「b」の数を聞くと「3つ」と誤答したり(正解は2つ)「オレゴン州をOnegonと呼ぶ」「ジョー・バイデンがまだ大統領」といった基本的事実の誤認事例も相次いだ。

 これらは軽微なのですぐに直されるだろうが、明らかな間違いではなくとも、実際に使ってみると以前よりも直感的かつ浅い答えを出す傾向にあることはすぐに感じられる。従来のGPT-4oは、簡潔ながらも包括的で詳細な回答を、構造的なレポートで報告してくれた。しかし、GPT-5を用いたChatGPTでは、表面的で物足りない答えしか返してくれない。

新世代のChatGPTは「促さないと働かない」?

 GPT-5のリリースから24時間も経たないうちに、ユーザーコミュニティの反発は大きくなった。英語圏では、組織的な抗議活動へと発展したほどだ。

 Redditに立ち上がった「GPT-5 is horrible」というスレッドは、瞬く間に5000以上の支持を集め、1700件以上のコメントが寄せられた。「アップグレードのようには感じられない」「気が狂いそうになる」といったクレームが殺到し、「俺たちのGPT-4oを返してくれ」と訴えるものもいた。

 文書分析におけるトークン消費も多く、無料ユーザーはPDFで参考記事を2つほどアップロードするだけで利用制限に達する。筆者のように、有料の「ChatGPT Plus」を契約しているユーザーでさえ、大きな文書をアップロードするのは気を遣ってしまう。

 筆者自身、実際に使ってみて「GPT-5は博士号(Ph.D)クラスの知識を奥底に備えているが、普段はサボりがちで子供のように拙速でおバカ、時に間抜けにも見える」と感じた。速度応答が若干遅くなることを許容できるなら、最初から「Thinking(推論)モード」で使った方がいいとも感じた。

 しかも、何もしないと会話のスレッド先頭の議論や調査データをすぐに参照しなくなるという問題も生じる。場合によっては、わざわざ「これまでの会話をよく振り返り、慎重にお願いします」という“おまじない”をしないと大変なことになってしまう。

スレッド Redditに立ち上がった「GPT-5 is horrible」というスレッド。結構辛らつな意見が相次いでいることが分かる

 なぜこうなったのか――その根本的な原因は、OpenAIが導入したChatGPTの新アーキテクチャだ。

 従来、ChatGPTではAIモデルを明示的に選択できた。しかし、GPT-5のリリースに合わせてAIモデルの選択システムを完全に廃止し、リクエストの複雑さを判断し、適切なモデル(推論の深さやモデルの規模)を自動選択するように変更された。

 理論的には、この変更は「使いこなし不要で、誰もが活用できるAI」の実現を目指したものだった。しかし、現実には自動選択機能はうまく機能しなかったということになる。

 アルトマンCEO自身、後に「自動切り替えがうまく動かなかった」という趣旨の反省のポストを投稿したほどだ。Open AIによると、この問題はモデルを自動選択するシステムの調整不足が主因だという。システムがユーザーの質問の複雑さや期待する回答の詳細度を適切に判断できず、ほとんどのケースにおいて最も軽量なAIモデルを選択してしまう傾向が強かったという。

これは電力効率の向上とコスト削減、応答性の向上を重視した最適化の結果だったが、これによって対話の品質を大幅に低下させる結果を招いた。

 ただし、先述した通り「深く考えてください」「詳細に分析してください」「会話履歴を振り返って答えてください」といった明示的な指示を付与すると、GPT-5搭載のChatGPTは劇的に賢いAIモデルへと変貌する。推論が求められる質問を巧みに処理し、ほぼ適切な答えを返し、事実誤認も極めて少なくなる。

 しかし、これでは“自動的な最適化”ができているとは到底言えない。むしろ、プロンプトによる使いこなしのノウハウが一層重要になってしまったのだ。

 また、ChatGPTがバックグラウンドで用いるAIモデルを切り替えた場合、モデル間で会話に使われている情報が引き継がれないという技術制約も浮かび上がってきている。

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー