ITmedia NEWS > 製品動向 >
ITmedia AI+ AI活用のいまが分かる

Microsoft、推論特化チップ「Maia 200」 競合比3倍の性能でGPT-5.2を支援

» 2026年01月27日 07時05分 公開
[ITmedia]

 米Microsoftは1月26日(現地時間)、AI推論に特化した自社設計のカスタムアクセラレータ「Maia 200」を発表した。LLMの推論のスループットとコスト効率を最大化するデータセンター向けチップで、台湾TSMCの3nmプロセスを採用。216GBの広帯域メモリ(HBM3e)を備え、メモリ帯域7TB/sを実現している。

 maia 1 Maia 200(画像:Microsoft)

 低精度演算(FP4/FP8)に最適化されたテンソルコアを搭載し、「第3世代Amazon Trainiumの3倍のFP4性能と、Googleの第7世代TPUを上回るFP8性能を備え、ハイパースケーラーが提供する最高性能のファーストパーティシリコンとなっている」という。

 maia 2 Maia 200とAmazonおよびGoogleの最新AIチップの比較(画像:Microsoft)

 Maia 200の導入により、Azure上でのAIワークロードの価格性能比は約30%向上する見込みだ。米OpenAIの最新モデル「GPT-5.2」の推論基盤としても最適化されており、Microsoft FoundryやMicrosoft 365 Copilotのレスポンス向上や運用コストの削減にも波及するとしている。

 既にAzureで稼働を開始しており、米アイオワ州のUS Centralリージョンに配備済みで、次に米アリゾナ州フェニックス近郊のUS West 3リージョンを予定し、今後ほかのリージョンにも展開していくとしている。

 移行を支援するため、PyTorch統合やTritonコンパイラを含むSDKのプレビュー版も案内された。これにより、開発者は既存のAIモデルを最小限の手間でMaia 200へ移植し、チップの性能を最大限に引き出す最適化を行うことが可能になるとしている。


Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

あなたにおすすめの記事PR