Microsoftが推論特化のAIアクセラレーター「Azure Maia 200」を開発 FP4演算なら毎秒1京回超の演算が可能 一部のAzureデータセンターに導入
Microsoftが自社のAzureデータセンターなどに導入しているAIアクセラレーター「Azure Maia」に第2世代が登場する。従来よりもさらに高速化しつつも、消費電力を抑えていることが特徴だという。
Microsoftは1月26日(米国太平洋時間)、AI(人工知能)の推論演算に特化したデータセンター向けAIアクセラレーター「Azure Maia 200」を発表した。Maia 200を採用するサーバは同社の「米国中部データセンター」で既に展開済みで、今後も同社のAzureデータセンターの一部リージョンに導入を進めるという。
Azure Maia 200は、2023年11月にリリースした「Azure Maia 100」の次世代版という位置付けで、台湾TSMCの3nmプロセスで製造されている。トランジスタ数は1400億個超で、毎秒7TBの帯域幅を持つHBM3e(広帯域メモリ)を216GB備え、オンチップSRAMも272MB備えている。
FP4/FP8演算をネイティブに演算できる「テンソル(行列)コア」を備えており、ピーク時の演算性能はFP4演算時で約10PFLOPS(毎秒1京回)超、FP8演算時で約5PFLOPS(毎秒5000兆回)となっている。FP4演算はAWS(Amazon Web Services)の「Trainium3」比で3倍の性能で、FP8演算もGoogleの「第7世代TPU(Ironwood)」を上回るという。
チップ自体の演算性能だけでなく、データのやり取りについても高速化を図っており、Azureデータセンターに設置される「サーバブレード」では1トレイ当たり4基のAzure Maia 200をスイッチを介さず直接接続することで、スループット(実効性能)の向上と効率の改善を図っているという。
Microsoftでは、Maia 200を利用するためのSDK(ソフトウェア開発キット)のプレビュー版を公開している。利用にはWebフォームからリクエストする必要がある。
関連記事
OpenAI、画像生成AI「DALL-E」に部分編集機能を追加
OpenAIは、同社提供の画像生成AI「DALL-E」に部分編集機能を追加した。米Microsoft、AI向けに独自のArmプロセッサ「Cobalt」とAIアクセラレータ「Maia」を開発
いずれも2024年初頭からMicrosoftのデータセンターに展開する。AWSがワッパを改善した次世代プロセッサを披露 幅広い処理に対応する「Graviton4」と機械学習特化の「Trainium2」
Amazon Web Servicesが、自社データセンターで利用する自社開発プロセッサの新モデルを披露した。同社の「Amazon EC2」で順次利用可能になる見通しだ。危機の演出? それとも本当の“焦り”? OpenAI「コード・レッド」の内実
OpenAIが「GPT-5.2」を発表する前に、同社が社内に「コード・レッド(緊急事態)」を宣言したという報道があった。これは、一体どういうことだったのか――よく見てみると、ある意味でのゲームチェンジを狙ったものだということが分かる。“暖かみのある会話”を実現――OpenAIの新言語モデル「GPT-4.5」は何が変わったのか?
OpenAIの新言語モデル「GPT-4.5」のリサーチプレビュー版をリリースした。従来の「GPT-4」と何が変わったのか、実際に試しつつ解説する。【更新】
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.