プロナビ

Microsoftが推論特化のAIアクセラレーター「Azure Maia 200」を開発 FP4演算なら毎秒1京回超の演算が可能 一部のAzureデータセンターに導入

» 2026年01月27日 19時02分 公開
[井上翔ITmedia]

 Microsoftは1月26日(米国太平洋時間)、AI(人工知能)の推論演算に特化したデータセンター向けAIアクセラレーター「Azure Maia 200」を発表した。Maia 200を採用するサーバは同社の「米国中部データセンター」で既に展開済みで、今後も同社のAzureデータセンターの一部リージョンに導入を進めるという。

Maia 200 Microsoftが自社設計したAIアクセラレーター「Maia 200」のチップイメージ

 Azure Maia 200は、2023年11月にリリースした「Azure Maia 100」の次世代版という位置付けで、台湾TSMCの3nmプロセスで製造されている。トランジスタ数は1400億個超で、毎秒7TBの帯域幅を持つHBM3e(広帯域メモリ)を216GB備え、オンチップSRAMも272MB備えている。

 FP4/FP8演算をネイティブに演算できる「テンソル(行列)コア」を備えており、ピーク時の演算性能はFP4演算時で約10PFLOPS(毎秒1京回)超、FP8演算時で約5PFLOPS(毎秒5000兆回)となっている。FP4演算はAWS(Amazon Web Services)の「Trainium3」比で3倍の性能で、FP8演算もGoogleの「第7世代TPU(Ironwood)」を上回るという。

主な仕様 Azure Maia 200の主な仕様
性能比較 競合の「AWS Trainium3」「Google Ironwood」との性能比較

 チップ自体の演算性能だけでなく、データのやり取りについても高速化を図っており、Azureデータセンターに設置される「サーバブレード」では1トレイ当たり4基のAzure Maia 200をスイッチを介さず直接接続することで、スループット(実効性能)の向上と効率の改善を図っているという。

トレイ Azureデータセンターで使われる、Maia 200のサーバブレード

 Microsoftでは、Maia 200を利用するためのSDK(ソフトウェア開発キット)のプレビュー版を公開している。利用にはWebフォームからリクエストする必要がある。

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー

2026年