AWS、AIチップ「Trainium3」の提供開始 演算性能は先代の4.4倍に:re:Invent 2025
AWSは年次イベント「re:Invent 2025」で、3nmプロセスの新AIチップ「Trainium3」と搭載システム「Trainium3 UltraServer」を発表し、一般提供を開始した。先代比で演算性能最大4.4倍、メモリ帯域幅約4倍を達成。次世代「Trainium4」ではNVIDIAの「NVLink Fusion」をサポートし、GPUとのシームレスな連携を目指す。
米Amazon傘下のAWSは12月3日(現地時間)、年次イベント「re:Invent 2025」で、3ナノメートルプロセスで構築した「Trainium3」チップと、自社開発のネットワーク技術を搭載したシステム「Trainium3 UltraServer」を発表した。
AWS初の3ナノメートルプロセスを採用したTrainium3チップは、前世代のTrainium2と比較して処理性能が2倍に向上。このチップを最大144個搭載可能なTrainium3 UltraServerは、システム全体として先代のTrainium2 UltraServerと比較し、演算性能が最大4.4倍、メモリ帯域幅が約4倍に強化されたほか、エネルギー効率も4倍向上した。また、新たなネットワーク技術である「NeuronSwitch-v1」の導入により、サーバ内の帯域幅が2倍になり、チップ間の通信遅延は10マイクロ秒未満に短縮されている。
AWSは、次世代チップ「Trainium4」の開発計画についても言及した。FP4演算性能で少なくとも6倍、FP8で3倍、メモリ帯域幅で4倍の性能向上を見込んでいる。米NVIDIAの「NVLink Fusion」インターコネクト技術をサポートするよう設計されており、これによりTrainium4、Gravitonプロセッサ、Elastic Fabric Adapter(EFA)が共通のMGXラック内でシームレスに連携可能になる。その結果、GPUサーバとTrainiumサーバが混在する環境でも、費用対効果の高いラック規模のAIインフラを構築できるようになるという。
Trainium3 UltraServerは、同日から一般提供を開始する。既に同製品を利用している、または導入による成果を挙げている顧客として、米Anthropic、日本のリコーとカラクリなどが紹介された。AWSのマネージドサービスであるAmazon Bedrockの本番環境でも稼働している。
具体的な提供価格は発表文には明記されていないが、導入企業では他社製品と比較してトレーニングや推論のコストを最大50%削減できたとされている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
クラウドインフラのシェア、Canalysの調査ではAWSがシェア30%台を維持、Azureは23%と急増
調査会社のシンガポールCanalysは、2025年第1四半期におけるグローバルなクラウドインフラ市場に関する調査結果を発表しました。
Apple幹部、AWS re:Inventに登壇 AIトレーニングに「Graviton」採用と語る
AmazonのAWS re:InventにApple幹部が登壇し、「AWSは、Appleの規模と成長を支える上で重要な役割を果たしてきた」と語った。生成AIモデルの事前トレーニングで「Trainium 2」を評価中とも語った。
Amazon、Anthropicに40億ドル追加投資 AWSの次世代Trainiumチップ共同開発へ
AmazonとAnthropicは、昨年9月に発表した提携を深めると発表した。Amazonは追加で40億ドル投資し、AnthropicはAWS上で自社モデルをトレーニングする他、AWSのAIチップの開発に協力する。
AWS、自社開発MLトレーニングプロセッサ「Trainium」 EC2で提供へ
AWSが自社開発の機械学習トレーニングプロセッサ「Trainium」を発表した。2018年発表の「Inferentia」と平行して来年からEC2で提供する。EC2ではIntelの「Gaudi AI」ベースのインスタンスも提供予定だ。

