米Microsoftは11月15日(現地時間)、開発者向け年次イベント「Microsoft Ignite」で、2つのカスタム設計チップ、AIに最適化した「Microsoft Azure Maia 100 AI Accelerator」(以下「Maia 100」)とArmベースの汎用「Microsoft Azure Cobalt 100 CPU」(以下「Cobalt 100」)を発表した。
Microsoftは現在、Azureデータセンターで主に米NVIDIAのGPUを採用しているが、「インフラストラクチャスタックのすべての層を最適化して統合することが重要」だとクラウドおよびAIグループのエクゼクティブバイス・プレジデント、スコット・ガスリー氏は公式ブログで語った。「自社製チップの追加は、すべての要素がMicrosoftクラウドおよびAIワークロードに合わせて調整されるようにする方法」だとしている。
これと並行して、2024年にはNVIDIAの最新GPU「H200」も追加していく計画だ。また、米AMDのアクセラレーションVM「MI300X」をAzureに追加することも発表した。
パートナーのチップやハードウェアに自社製チップを追加することで、顧客に価格と性能の選択肢を増やすとしている。
Maia 100は、1050億個のトランジスタを含む5ナノメートルチップ。Azureハードウェアスタック専用で、Microsoft Azure上で実行される最大規模の内部AIワークロードの一部を強化する。MicrosoftはMaiaの設計を米OpenAIと共有し、OpenAIは改良で協力した。同社のサム・アルトマンCEOは「AzureのAIアーキテクチャはMaiaによってシリコンに至るまで最適化されており、より有能なモデルをトレーニングし、そのモデルを顧客に安価に提供する道を切り開く」と語った。
Cobalt 100は、クラウドネイティブ製品でより高い効率と性能を提供するよう最適化されている。データセンター全体でのワット当たりの性能を最適化することが目的。
Maia 100とCobalt 100は、2024年初頭にAzureデータセンターへの展開を開始する予定。Microsoftの一連のCopilotやAzure OpenAI Serviceなどのサービスを強化していく計画だ。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR