ChatGPTのAIインフラが大幅強化 OpenAI、AWSと380億ドル契約締結で計算資源を確保:AIニュースピックアップ
OpenAIはAWSと7年にわたる380億ドルの提携を結んだ。数十万規模GPUを含むAWSの計算基盤を利用し、生成AIの学習と推論を大規模に運用可能とする。UltraServer由来の低遅延クラスターで次世代モデル訓練も視野に、研究開発と性能向上を促進させる。
OpenAIは2025年11月3日(現地時間)、Amazon Web Services(AWS)との間で戦略的パートナーシップを締結したと発表した。この提携により、OpenAIはAWSの高性能なインフラストラクチャを利用し、AIワークロードを運用・拡張できるようになるという。契約総額は380億ドルに達し、今後7年間にわたり継続的な拡大が予定されている。
OpenAIの生成AIワークロードをAWSが拡張
今回の合意に基づき、OpenAIは数十万規模の最先端NVIDIA GPUを含むAWSの計算資源を活用する。
AWSは50万チップを超えるクラスターを運用した実績を有しており、安全性と信頼性を兼ね備えた大規模AIインフラを提供してきた。AWSのクラウドインフラ分野での実績と、OpenAIによる生成AI技術の開発力が組み合わさることで、「ChatGPT」をはじめとするAIサービスの安定した提供と性能向上が期待される。
AIの進展により、計算能力への需要が高まっている。最前線のモデルを開発する企業にとって、大規模かつ効率的な演算基盤の確保は喫緊の課題となっている。OpenAIは今回の提携を通じ、AWSが提供する演算性能・拡張性・安全性を生かし、自社モデルを高度化させる。計算リソースは2026年末までに全容量が配備される見通しで、2027年以降も追加拡張が計画されている。
AWSがOpenAIのために構築するインフラは、高度なアーキテクチャ設計に基づくものとなる。「Amazon EC2 UltraServer」でNVIDIAの「GB200」および「GB300」をクラスター化することで、システム間の低遅延通信を実現し、学習から推論まで幅広いAI処理を効率的に実行できるように設計されている。ChatGPTの推論処理や次世代モデルの訓練など、OpenAIのニーズに応じた柔軟な運用が可能になるとしている。
この提携は、両社がAI技術の普及と発展のために協働してきた取り組みの延長線上にある。今年初め、OpenAIのオープンウェイトモデルが「Amazon Bedrock」で利用可能になった。現在、BystreetやComscore、Peloton、Thomson Reuters、Triomics、Verana Healthなど多数の企業が、OpenAIのモデルを活用してエージェント型処理、プログラミング支援、科学的分析、数理問題解決などを実施している。
今回の戦略的提携により、OpenAIは計算能力の拡張を通じて研究開発を促進させ、AWSは生成AI分野におけるインフラ提供者としての存在感を強めることになりそうだ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Microsoft 365 Copilot、ついに“エージェント化” ExcelやWordで複雑なタスクを段階的に処理する新機能
Microsoftは、Microsoft 365 Copilotの新機能「Agent Mode」と「Office Agent」を発表した。ExcelやWordなどのOfficeアプリでAIと対話的に協働し、複雑な業務を段階的に処理・完成できる。
“AIエージェントの次”のトレンドは何か Gartnerが描く未来志向型インフラのハイプ・サイクル
Gartnerは、日本の未来志向型インフラ・テクノロジーに関するハイプ・サイクルを発表した。AIエージェントや完全自動化など9項目を新たに加え、2030年を目標とした産業変革の指針を提示している。
生成AI、進化の鍵を握る「長期思考」 Sakana AIが挑む“人間のように試行錯誤するAI”への道筋
AIの進化は目覚ましく、その活用は日々広がっている。しかし、現在のAIにはまだ苦手な分野がある。それは数週間といった「長期間の思考」を要する複雑なタスクだ。この難題にAI研究の最前線はどう挑んでいるのか。Sakana AIの秋葉拓哉氏に話を聞いた。