Qualcomm、データセンター向けAI推論チップ市場に本格参入 「AI200」「AI250」発表
Qualcommは、データセンター向けAI推論チップ「AI200」と「AI250」を発表した。AI200は2026年に、AI250は2027年に利用可能になる予定。サウジアラビアのHumainが200MW規模での導入を表明している。
米Qualcommは10月27日(現地時間)、データセンター向けの次世代AI推論チップ「AI200」と「AI250」を発表した。
Qualcommはこれらの製品で、AIモデルのトレーニングではなく、AIモデルを実行する推論に焦点を当てているという。AI200とAI250の目的は、ラック規模の生成AI推論パフォーマンスと優れたメモリ容量を提供することであり、特にLLMやLMM(マルチモーダルモデル)の推論ワークロードに最適化されているとしている。同社は、これらのAIチップが、電力消費、所有コスト、新しいメモリ処理方法において、他のアクセラレータよりも優位性を持つと説明している。
AI200は、カード当たり768GBのLPDDRメモリをサポートしており、このメモリ容量は、現行の米NVIDIAや米AMDの製品よりも多い。AI250については、ニアメモリコンピューティングに基づいたメモリアーキテクチャが特徴で、「実効メモリ帯域幅を10倍以上向上させながら消費電力を大幅に削減」したとし、推論ワークロードの効率とパフォーマンスで飛躍的な進歩をもたらすと説明した。
これらのラックソリューションは、熱効率のために直接液冷を採用し、ラックレベルでの消費電力は160 kWだ。「開発者は、Qualcomm TechnologiesのEfficient Transformers LibraryとQualcomm AI Inference Suiteを介して、シームレスなモデルオンボーディングとHugging Faceモデルのワンクリックデプロイのメリットを享受できる」という。
AI200は2026年に、AI250は2027年に商業的に利用可能になる見込みだ。
QualcommはAIチップの発表と同時に、5月に発表したサウジアラビアのAI企業Humainとの提携の進捗についても説明した。Humainは、AI200とAI250のラックソリューションを200メガワット(MW)規模で導入することを目標とする。この取り組みで、Humainが開発したAI「ALLaM」モデルをQualcommのAIプラットフォームと統合する予定だ。
Qualcommはスマートフォン向けプロセッサで知られるが、2019年にはデータセンター向けAI処理向けチップを発表している。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「Android XR」初のヘッドセット「Galaxy XR」が登場 「Vision Pro」の半額、約1800ドルで
韓国Samsungから、MRヘッドセット「Galaxy XR」が登場した。米Googleの「Android XR」に初めて対応する製品で、音声・視線・ジェスチャーでの操作のほか、GoogleのAI「Gemini」をOSレベルで統合するのが特徴。価格は1799.99ドルで、Appleの「Vision Pro」(3499ドル)と比べて、約半額に抑えた。米国と韓国で、同日より販売を開始している。
Qualcomm、Arduinoを買収 新ボード「UNO Q」発表、AI対応強化をアピール
米Qualcomm Technologiesは、IoTツールを開発するイタリアArduinoを買収すると発表した。買収額などは非公開。
Google、初の推論専用TPU「Ironwood」を今年後半Cloud顧客に提供開始へ
Googleは「Cloud Next 2025」で、第7世代となるTPU「Ironwood」を発表した。推論処理に特化した初のTPUだ。最大で4614TFLOPSの計算能力を提供する。
Qualcomm、サーバ向けAIプロセッサ「Cloud AI 100」を2020年出荷へ
Qualcommが、データセンターのサーバなどでのAI処理向けプロセッサ「Cloud AI 100」を発表した。年内にプロトタイプの提供を開始し、2020年中には製品版を出荷する計画だ。

