Microsoftは1月26日(米国太平洋時間)、AI(人工知能)の推論演算に特化したデータセンター向けAIアクセラレーター「Azure Maia 200」を発表した。Maia 200を採用するサーバは同社の「米国中部データセンター」で既に展開済みで、今後も同社のAzureデータセンターの一部リージョンに導入を進めるという。
Azure Maia 200は、2023年11月にリリースした「Azure Maia 100」の次世代版という位置付けで、台湾TSMCの3nmプロセスで製造されている。トランジスタ数は1400億個超で、毎秒7TBの帯域幅を持つHBM3e(広帯域メモリ)を216GB備え、オンチップSRAMも272MB備えている。
FP4/FP8演算をネイティブに演算できる「テンソル(行列)コア」を備えており、ピーク時の演算性能はFP4演算時で約10PFLOPS(毎秒1京回)超、FP8演算時で約5PFLOPS(毎秒5000兆回)となっている。FP4演算はAWS(Amazon Web Services)の「Trainium3」比で3倍の性能で、FP8演算もGoogleの「第7世代TPU(Ironwood)」を上回るという。
チップ自体の演算性能だけでなく、データのやり取りについても高速化を図っており、Azureデータセンターに設置される「サーバブレード」では1トレイ当たり4基のAzure Maia 200をスイッチを介さず直接接続することで、スループット(実効性能)の向上と効率の改善を図っているという。
Microsoftでは、Maia 200を利用するためのSDK(ソフトウェア開発キット)のプレビュー版を公開している。利用にはWebフォームからリクエストする必要がある。
OpenAI、画像生成AI「DALL-E」に部分編集機能を追加
米Microsoft、AI向けに独自のArmプロセッサ「Cobalt」とAIアクセラレータ「Maia」を開発
AWSがワッパを改善した次世代プロセッサを披露 幅広い処理に対応する「Graviton4」と機械学習特化の「Trainium2」
危機の演出? それとも本当の“焦り”? OpenAI「コード・レッド」の内実
“暖かみのある会話”を実現――OpenAIの新言語モデル「GPT-4.5」は何が変わったのか?Copyright © ITmedia, Inc. All Rights Reserved.