検索
速報

Microsoft、推論特化チップ「Maia 200」 競合比3倍の性能でGPT-5.2を支援

Microsoftは自社製AI推論チップ「Maia 200」を発表した。TSMCの3nmプロセスを採用し、演算性能はAmazonやGoogleの最新チップを凌駕するとしている。推論の価格性能比を30%改善し、OpenAIの「GPT-5.2」の提供基盤としても活用される。アイオワ州リージョンで稼働を開始しており、順次グローバルへ拡大する。

Share
Tweet
LINE
Hatena

 米Microsoftは1月26日(現地時間)、AI推論に特化した自社設計のカスタムアクセラレータ「Maia 200」を発表した。LLMの推論のスループットとコスト効率を最大化するデータセンター向けチップで、台湾TSMCの3nmプロセスを採用。216GBの広帯域メモリ(HBM3e)を備え、メモリ帯域7TB/sを実現している。

 maia 1
Maia 200(画像:Microsoft)

 低精度演算(FP4/FP8)に最適化されたテンソルコアを搭載し、「第3世代Amazon Trainiumの3倍のFP4性能と、Googleの第7世代TPUを上回るFP8性能を備え、ハイパースケーラーが提供する最高性能のファーストパーティシリコンとなっている」という。

 maia 2
Maia 200とAmazonおよびGoogleの最新AIチップの比較(画像:Microsoft)

 Maia 200の導入により、Azure上でのAIワークロードの価格性能比は約30%向上する見込みだ。米OpenAIの最新モデル「GPT-5.2」の推論基盤としても最適化されており、Microsoft FoundryやMicrosoft 365 Copilotのレスポンス向上や運用コストの削減にも波及するとしている。

 既にAzureで稼働を開始しており、米アイオワ州のUS Centralリージョンに配備済みで、次に米アリゾナ州フェニックス近郊のUS West 3リージョンを予定し、今後ほかのリージョンにも展開していくとしている。

 移行を支援するため、PyTorch統合やTritonコンパイラを含むSDKのプレビュー版も案内された。これにより、開発者は既存のAIモデルを最小限の手間でMaia 200へ移植し、チップの性能を最大限に引き出す最適化を行うことが可能になるとしている。


Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る