「GPT-5」はどうやって進化したのか 仕様書から見える最新技術AIビジネスのプロ 三澤博士がチェック 今週の注目論文

OpenAIが公開した技術仕様書が、これまでの企業のAI活動を阻害していた根本的な課題を解決つつある。ハルシネーションの削減や安全性と使いやすさを両立する仕組み、AIの欺瞞(ぎまん)を検出する技術は、日本企業のAI戦略にどのような戦略的機会をもたらすのか。

» 2025年09月17日 10時00分 公開
[三澤瑠花ITmedia]

この連載について

AIやデータ分析の分野では、毎日のように新しい技術やサービスが登場している。その中にはビジネスに役立つものも、根底をひっくり返すほどのものも存在する。本連載では、ITサービス企業・日本TCSの「AIラボ」で所長を務める三澤瑠花氏が、データ分析や生成AIの分野で注目されている最新論文や企業発表をビジネス視点から紹介する。

 OpenAIが2025年8月に発表した「GPT-5 system card」(技術仕様書)が、これまでの企業のAI活動を阻害していた根本的な課題を解決つつあります。OpenAIは2023年3月のGPT-4シリーズ以降、主要モデルのシステムカードを公開していますが、今回は特に技術的な詳細のメカニズムを開示しました。

 ハルシネーション率65%削減や、二択制約を突破した「Self Completions」(安全完了手法)、AIの欺瞞(ぎまん)的行動を事前検出する「CoT監視」(思考の連鎖監視)という3つの技術革新が、日本企業のAI戦略にどのような戦略的機会をもたらすのでしょうか。技術的根拠を読み解きます。

ハルシネーション削減への取り組み

 GPT-5は高速汎用モデル「gpt-5-main」と深い推論に特化したモデル「gpt-5-thinking」、そして質問の複雑さに応じて最適なモデルを選択するルーターから構成されます。ユーザーがプロンプトを入力すると、ルーターが適したモデルを自動で選び、回答を生成します。

 この両モデルの開発における重要な目標の一つはハルシネーションの削減でした。ハルシネーションはビジネスでの生成AI利用を妨げる大きな課題です。GPT-5ではモデルのトレーニング時に2つの分野に焦点を当てた取り組みを行いました。

 第1に、最新情報へのアクセスと効果的な活用に対するトレーニングです。ChatGPTはブラウジング機能がデフォルトで有効になっていますが、API経由で使う場合はブラウジングツールが使用されない傾向があります。そのため、最新情報を正確に取得できるよう効果的なブラウジング能力の向上に取り組みました。

 第2に、内部知識に依存する際のハルシネーション削減に対するトレーニングです。モデルが学習済みの内部知識のみに依存して回答する場合のハルシネーションを減らすため、専門的なトレーニングを実施しました。

 この結果、実際のChatGPT利用者の質問パターンを模した評価セットの評価において、ハルシネーションの大幅な削減に成功しました。1世代前の高速汎用モデル「GPT-4o」と比較してgpt-5-mainでは26%、1世代前の推論特化モデル「OpenAI o3」と比較してgpt-5-thinkingは65%ハルシネーションを削減しました。

 評価の方法も注目すべきポイントです。まず、インターネットにアクセスできる評価用LLM(大規模言語モデル)が、GPT-5の回答のハルシネーションを特定します。次に人間が評価用LLMの評価の妥当性を確認します。この検証の結果人間と評価用LLMの判定が75%の割合で一致し、さらに評価用LLMは人間よりも多くのハルシネーションを正確に特定しました。LLMが大規模なデータセットを自動で効率的に評価し、人間がその信頼性を保証するという両者の強みを合わせた評価方法です。

「Safe Completions」による安全性と実用性の両立

 GPT-5の最大の技術的革新は「Self Completions」(安全完了手法)と呼ばれる新しい訓練手法の導入です。gpt-5-thinkingとgpt-5-mainの両方のモデルに組み込まれています。

 従来の「Hard Refusal」(厳格拒否手法)では、LLMはユーザーの質問に対して、完全に協力するか完全に拒否するかのどちらかしか選べませんでした。この手法は良い目的にも悪い目的にも使われる分野で問題となります。例えば、企業が「サイバーセキュリティの脅威を教えてください」と正当な質問をしても、「セキュリティ情報は提供できません」と完全に拒否してしまい、本来認められるはずのビジネス利用まで阻害していることが分かっています。

 新しい方で手法では、ユーザーの質問が「安全か危険か」の二つに分けるのではなく「LLMの回答が安全かどうか」に焦点を当てています。これによって安全上のルールを守りながらも、できるだけ役立つ情報を提供できるようになりました。良い目的にも悪い目的にも使われる質問への対応がより安全になり、もし安全上の問題が残ったとしても、その影響は小さくなりました。そしてLLM全体の使いやすさが大きく向上したことが確認されています。

LLMの「ごまかし」行動とその対策

 これまでのLLMの推論はブラックボックスのように完全に不透明で、実用的な速度でリアルタイムに監視することは極めて困難でした。LLMの推論過程を人間が理解可能な形で表現することも難しく、また事前に「ごまかし」行動(欺瞞的行動)を防ぐことは不可能でした。

 欺瞞的行動とはLLMがユーザーに実際の状況と異なる情報を伝える行動です。OpenAI o3では実際に、実行していないのにタスクを完了したと報告したり、過去に経験したことのない事柄を創造したりしていました。そこでOpen AIはgpt-5-thinkingの欺瞞的行動を減らすための対策を実施しました。主な対策は、できないことを正直に認めるよう学習させることです。以下のような「失敗が想定される」環境で学習させました。

  • コーディング課題:ネットワークアクセスがなかったりタスクが大きすぎて解けない課題
  • 壊れたツール:Web検索などのツールが必要なタスクでわざとツールを使えないようにし、エラーを返すように設定
  • 不完全な指示:画像がないのに「この画像について教えて」と尋ねるなど重要な情報が欠けているリクエスト

 これらの対策の結果OpenAI o3よりもgpt-5-thinkingは全ての評価において欺瞞的行動が大幅に減少しました。

 さらに、CoT(思考の連鎖)をリアルタイムで監視する新しいアプローチを導入しました。CoTとはAIが問題を解く際の思考の過程を可視化するために使われ、OpenAI o3などの推論モデルでも採用されている技術です。答えに至るまでのステップや論理を言葉で説明させることで、LLMの内部推論を人間が理解できるようにするものです。

 CoTの監視とは、矛盾した情報や実際には実行していない行動の主張などの特定パターンを自動で確認したり、また大量の会話データに対して欺瞞的行動の可能性がある箇所にフラグを立てたりなどです。

 その結果OpenAI o3とgpt-5-thinkingに同じ会話セットを入力として欺瞞の検出を比較したところ、欺瞞的行動はOpenAI o3では約4.8%だったのに対しgpt-5-thinkingは2.1%まで減りました。ただし、非推論モデルや監視可能なCoTが少ない推論モデルではこの問題の解決策では不十分であり、新しい解決策が望まれています。

三澤の“目” ビジネスで使える信頼性獲得に向けて

 GPT-5はこれまでのLLMが抱えていた信頼性の課題を大きく克服しました。ハルシネーションの劇的な低減と、思考プロセスを監視する技術は、AIの不確実性をより管理可能なものにしています。これにより、AIは不確実な「選択肢の一つ」ではなく、より明確な成果を期待できる戦略的投資対象として位置付けられるようになります。GPT-5はあらゆる企業活動に対してより安全に確実に変革する新しい未来の始まりを告げるモデルです。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR