ニュース

Microsoftが推論特化のAIアクセラレーター「Azure Maia 200」を開発 FP4演算なら毎秒1京回超の演算が可能 一部のAzureデータセンターに導入

Microsoftが自社のAzureデータセンターなどに導入しているAIアクセラレーター「Azure Maia」に第2世代が登場する。従来よりもさらに高速化しつつも、消費電力を抑えていることが特徴だという。

 Microsoftは1月26日(米国太平洋時間)、AI(人工知能)の推論演算に特化したデータセンター向けAIアクセラレーター「Azure Maia 200」を発表した。Maia 200を採用するサーバは同社の「米国中部データセンター」で既に展開済みで、今後も同社のAzureデータセンターの一部リージョンに導入を進めるという。


Microsoftが自社設計したAIアクセラレーター「Maia 200」のチップイメージ

 Azure Maia 200は、2023年11月にリリースした「Azure Maia 100」の次世代版という位置付けで、台湾TSMCの3nmプロセスで製造されている。トランジスタ数は1400億個超で、毎秒7TBの帯域幅を持つHBM3e(広帯域メモリ)を216GB備え、オンチップSRAMも272MB備えている。

 FP4/FP8演算をネイティブに演算できる「テンソル(行列)コア」を備えており、ピーク時の演算性能はFP4演算時で約10PFLOPS(毎秒1京回)超、FP8演算時で約5PFLOPS(毎秒5000兆回)となっている。FP4演算はAWS(Amazon Web Services)の「Trainium3」比で3倍の性能で、FP8演算もGoogleの「第7世代TPU(Ironwood)」を上回るという。

advertisement

Azure Maia 200の主な仕様

競合の「AWS Trainium3」「Google Ironwood」との性能比較

 チップ自体の演算性能だけでなく、データのやり取りについても高速化を図っており、Azureデータセンターに設置される「サーバブレード」では1トレイ当たり4基のAzure Maia 200をスイッチを介さず直接接続することで、スループット(実効性能)の向上と効率の改善を図っているという。


Azureデータセンターで使われる、Maia 200のサーバブレード

 Microsoftでは、Maia 200を利用するためのSDK(ソフトウェア開発キット)のプレビュー版を公開している。利用にはWebフォームからリクエストする必要がある。

Copyright © ITmedia, Inc. All Rights Reserved.