検索
ニュース

ChatGPTのAIインフラが大幅強化 OpenAI、AWSと380億ドル契約締結で計算資源を確保AIニュースピックアップ

OpenAIはAWSと7年にわたる380億ドルの提携を結んだ。数十万規模GPUを含むAWSの計算基盤を利用し、生成AIの学習と推論を大規模に運用可能とする。UltraServer由来の低遅延クラスターで次世代モデル訓練も視野に、研究開発と性能向上を促進させる。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 OpenAIは2025年11月3日(現地時間)、Amazon Web Services(AWS)との間で戦略的パートナーシップを締結したと発表した。この提携により、OpenAIはAWSの高性能なインフラストラクチャを利用し、AIワークロードを運用・拡張できるようになるという。契約総額は380億ドルに達し、今後7年間にわたり継続的な拡大が予定されている。

OpenAIの生成AIワークロードをAWSが拡張

 今回の合意に基づき、OpenAIは数十万規模の最先端NVIDIA GPUを含むAWSの計算資源を活用する。

 AWSは50万チップを超えるクラスターを運用した実績を有しており、安全性と信頼性を兼ね備えた大規模AIインフラを提供してきた。AWSのクラウドインフラ分野での実績と、OpenAIによる生成AI技術の開発力が組み合わさることで、「ChatGPT」をはじめとするAIサービスの安定した提供と性能向上が期待される。

 AIの進展により、計算能力への需要が高まっている。最前線のモデルを開発する企業にとって、大規模かつ効率的な演算基盤の確保は喫緊の課題となっている。OpenAIは今回の提携を通じ、AWSが提供する演算性能・拡張性・安全性を生かし、自社モデルを高度化させる。計算リソースは2026年末までに全容量が配備される見通しで、2027年以降も追加拡張が計画されている。

 AWSがOpenAIのために構築するインフラは、高度なアーキテクチャ設計に基づくものとなる。「Amazon EC2 UltraServer」でNVIDIAの「GB200」および「GB300」をクラスター化することで、システム間の低遅延通信を実現し、学習から推論まで幅広いAI処理を効率的に実行できるように設計されている。ChatGPTの推論処理や次世代モデルの訓練など、OpenAIのニーズに応じた柔軟な運用が可能になるとしている。

 この提携は、両社がAI技術の普及と発展のために協働してきた取り組みの延長線上にある。今年初め、OpenAIのオープンウェイトモデルが「Amazon Bedrock」で利用可能になった。現在、BystreetやComscore、Peloton、Thomson Reuters、Triomics、Verana Healthなど多数の企業が、OpenAIのモデルを活用してエージェント型処理、プログラミング支援、科学的分析、数理問題解決などを実施している。

 今回の戦略的提携により、OpenAIは計算能力の拡張を通じて研究開発を促進させ、AWSは生成AI分野におけるインフラ提供者としての存在感を強めることになりそうだ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る