OpenAI「gpt-oss」発表 “o4-mini級”の性能をオープンにAIニュースピックアップ

OpenAIは2つのオープンウェイトLLM「gpt-oss-120b」および「gpt-oss-20b」を発表した。同社の最新モデルに匹敵する性能を持ちながら、一般的なハードウェアでも効率的に動作するよう最適化されている。

» 2025年08月06日 15時00分 公開
[村田知己ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 OpenAIは8月5日(現地時間)、2つのオープンウェイト(※)大規模言語モデル(LLM)「gpt-oss-120b」および「gpt-oss-20b」を発表した。「Apache 2.0」ライセンスの下で提供され、同社の最新モデルに匹敵する性能を持ちながら、一般的なハードウェアでも効率的に動作するよう最適化されているのが特徴だ。

激化するオープンLLM開発競争

 近年、Metaの「Llama」シリーズをはじめ、多くのオープンウェイトLLMが登場し、AI開発の民主化が加速している。しかし、高性能なモデルの多くは大規模な計算資源を必要とし、導入のハードルが高いという課題があった。こうした中、OpenAIは新たに高性能なオープンモデルを投入することで、開発者コミュニティへの貢献とAIエコシステムの健全な発展を目指す姿勢を示した。

※AIモデルの開発では、大量のデータを学習する過程でデータの重要性に応じた「重みづけ」を行う。「オープンウェイト」とはこの重みづけの情報をオープンにしていることを意味する。オープンウェイトモデルは学習に使ったデータやソースコードを公開しない。また、今回発表されたモデルは「当社のgpt-oss利用規約に基づくことで利用可能」とされており、 実質的にApache 2.0ライセンス以外の規約が存在する。これらの点から今回発表されたモデルは「オープンソース」とは厳密には異なる点に注意してほしい。

性能と効率性を両立した新モデル

 今回発表された「gpt-oss」シリーズは、エキスパート混合(MoE)アーキテクチャを採用することで、パラメータ数に対する計算効率を高めている。それぞれのモデルの詳細は以下の通りだ。

  • gpt-oss-120b: 1170億パラメータを持つ大規模モデル。トークンあたり51億パラメータをアクティブにし、単一の80GB GPUで動作可能。各種ベンチマークでは、同社のAPIで提供されている「o4-mini」に匹敵、あるいは上回る性能を記録したという。
  • gpt-oss-20b: 210億パラメータの軽量モデル。16GBのメモリを搭載したエッジデバイスでも動作し、「o3-mini」と同等の性能を発揮する。これにより、デバイス上でのローカル推論や、コストを抑えた迅速な開発が可能になる。
(左)数学や学術に関するベンチマーク結果、(右)コード生成に関するベンチマーク結果(出典:gpt-ossのモデルカード)

 両モデルは、最大128kのコンテキスト長をサポートする。これはGoogleのオープンウェイトモデル「Gemma 3」と同等だ。また、ツール利用や思考の連鎖(CoT)推論でも高い能力を発揮する。特に医療分野のベンチマーク「HealthBench」では、フラグシップモデルである「GPT-4o」を上回る結果を出したとされる。

 安全性にも配慮しており、有害なデータを除外して学習させたほか、悪意のあるファインチューニングに対する耐性もテスト済みだという。

AI開発の新たな選択肢に

 gpt-ossの登場により、開発者や企業は、自社のインフラで高性能なAIを低コストでカスタマイズ・運用するという新たな選択肢を得ることになる。特にgpt-oss-20bは、Microsoftとの提携により「Windows」デバイス向けに最適化されたバージョンが提供される予定で、ローカルLLMの活用を大きく後押しする可能性がある。

 これまでAIチャットやAPIを中心にサービスを展開してきたOpenAIが、強力なオープンモデルを市場に投入したことは、オープンLLMのエコシステム全体の活性化につながるだろう。

 同社は、オープンモデルの公開によって、リソースに限りがある組織におけるAI活用を支援する姿勢を示し、「健全なオープンモデルのエコシステムは、AI を広く利用でき、誰もが恩恵を受けられるようにするための一つの側面です」と述べた。

Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR