米Microsoftは1月26日(現地時間)、AI推論に特化した自社設計のカスタムアクセラレータ「Maia 200」を発表した。LLMの推論のスループットとコスト効率を最大化するデータセンター向けチップで、台湾TSMCの3nmプロセスを採用。216GBの広帯域メモリ(HBM3e)を備え、メモリ帯域7TB/sを実現している。
低精度演算(FP4/FP8)に最適化されたテンソルコアを搭載し、「第3世代Amazon Trainiumの3倍のFP4性能と、Googleの第7世代TPUを上回るFP8性能を備え、ハイパースケーラーが提供する最高性能のファーストパーティシリコンとなっている」という。
Maia 200の導入により、Azure上でのAIワークロードの価格性能比は約30%向上する見込みだ。米OpenAIの最新モデル「GPT-5.2」の推論基盤としても最適化されており、Microsoft FoundryやMicrosoft 365 Copilotのレスポンス向上や運用コストの削減にも波及するとしている。
既にAzureで稼働を開始しており、米アイオワ州のUS Centralリージョンに配備済みで、次に米アリゾナ州フェニックス近郊のUS West 3リージョンを予定し、今後ほかのリージョンにも展開していくとしている。
移行を支援するため、PyTorch統合やTritonコンパイラを含むSDKのプレビュー版も案内された。これにより、開発者は既存のAIモデルを最小限の手間でMaia 200へ移植し、チップの性能を最大限に引き出す最適化を行うことが可能になるとしている。
AWS、AIチップ「Trainium3」の提供開始 演算性能は先代の4.4倍に
Google、第7世代TPU「Ironwood」一般提供開始 Anthropicもテスト中
Microsoft、AI最適化チップ「Azure Maia 100」と汎用Armチップ「Azure Cobalt」
クラウドインフラのシェア、Canalysの調査ではAWSがシェア30%台を維持、Azureは23%と急増Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR