CiscoはGPU負荷の高いAIワークロード向けサーバー「UCS C885A M8」と特定業界向けAIインフラ「AI PODs」を発表した。AIインフラの迅速な構築が可能になるという。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Cisco Systemsは2024年11月28日(現地時間)、NVIDIAと共同開発した「UCS C885A M8」と「AI PODs」を発表した。UCS C885A M8はAIワークロード実行を想定した推論向けの構成とセキュリティを強化しており、AI PODsは特定の業界に特化したユースケースを想定する点が特徴だ。AI PODsにはエンタープライズ向けにAIモデルの管理・運用、開発支援向けのプラットフォーム「NVIDIA AI Enterprise」を搭載する。
シスコのAIサーバ製品群に新たにラインアップされるUCS C885A M8は、負荷の高いAIトレーニングおよび推論ワークロードに対応するため、TensorコアGPU「NVIDIA H100」および「H200」を搭載した「NVIDIA HGXスーパーコンピューティングプラットフォーム」を活用する。各サーバはAIワークロードにおけるネットワーク処理のパフォーマンスを高める「NVIDIA NIC」または「SuperNIC」に加えて、GPUのデータアクセスを高速化し、堅牢なゼロトラストセキュリティを実現する「NVIDIA BlueField-3 DPU」を搭載する。
「Cisco Validated Design」(CVD)を基盤として構築された「AI PODs」は、特定のAIユースケースや業界向けに特化したアプライアンス製品だ。あらかじめサイズや構成を決定するインフラストラクチャーバンドル型で提供されるため、エッジから大規模なクラスターまでの規模を問わずに迅速に導入できる。
AI PODsにはエンタープライズ品質のAI管理に関わるプロセスの運用を支援するNVIDIA AI Enterpriseが含まれているため、成果創出までの時間を短縮でき、運用に当たっては一貫したパフォーマンスの維持やリスク軽減のための環境もすぐに利用できる。
両製品とも「Cisco Intersight」による一元管理が可能だ。設定から日々の業務まで、全てを簡素化し、顧客の負担を軽減する。Cisco UCS C885A M8はすでに受注を開始しており、2024年中には出荷を開始予定だ。Cisco AI PODsは2024年11月より受注を開始する。
みずほ銀がDCネットワークを刷新、シスコ自らが基本設計を担当
Azure AIが業界特化型SLMモデルを拡充 設計・製造や金融、農業など
NVIDIAのCEOとソフトバンク 孫氏が対談 ソブリンAIの供給の構想を語る
「Red Hat OpenShift AI」がNIMに対応 ファインチューニング向け機能も追加Copyright © ITmedia, Inc. All Rights Reserved.