検索
速報

Qualcomm、データセンター向けAI推論チップ市場に本格参入 「AI200」「AI250」発表

Qualcommは、データセンター向けAI推論チップ「AI200」と「AI250」を発表した。AI200は2026年に、AI250は2027年に利用可能になる予定。サウジアラビアのHumainが200MW規模での導入を表明している。

Share
Tweet
LINE
Hatena

 米Qualcommは10月27日(現地時間)、データセンター向けの次世代AI推論チップ「AI200」と「AI250」を発表した。

 Qualcommはこれらの製品で、AIモデルのトレーニングではなく、AIモデルを実行する推論に焦点を当てているという。AI200とAI250の目的は、ラック規模の生成AI推論パフォーマンスと優れたメモリ容量を提供することであり、特にLLMやLMM(マルチモーダルモデル)の推論ワークロードに最適化されているとしている。同社は、これらのAIチップが、電力消費、所有コスト、新しいメモリ処理方法において、他のアクセラレータよりも優位性を持つと説明している。

 AI200は、カード当たり768GBのLPDDRメモリをサポートしており、このメモリ容量は、現行の米NVIDIAや米AMDの製品よりも多い。AI250については、ニアメモリコンピューティングに基づいたメモリアーキテクチャが特徴で、「実効メモリ帯域幅を10倍以上向上させながら消費電力を大幅に削減」したとし、推論ワークロードの効率とパフォーマンスで飛躍的な進歩をもたらすと説明した。

 これらのラックソリューションは、熱効率のために直接液冷を採用し、ラックレベルでの消費電力は160 kWだ。「開発者は、Qualcomm TechnologiesのEfficient Transformers LibraryとQualcomm AI Inference Suiteを介して、シームレスなモデルオンボーディングとHugging Faceモデルのワンクリックデプロイのメリットを享受できる」という。

 qualcomm 1
(画像:Qualcomm)

 AI200は2026年に、AI250は2027年に商業的に利用可能になる見込みだ。

 QualcommはAIチップの発表と同時に、5月に発表したサウジアラビアのAI企業Humainとの提携の進捗についても説明した。Humainは、AI200とAI250のラックソリューションを200メガワット(MW)規模で導入することを目標とする。この取り組みで、Humainが開発したAI「ALLaM」モデルをQualcommのAIプラットフォームと統合する予定だ。

 qualcomm 2
Humainのタレク・アミンCEO(左)とQualcommのクリスティアーノ・アモンCEO(画像:Qualcomm)

 Qualcommはスマートフォン向けプロセッサで知られるが、2019年にはデータセンター向けAI処理向けチップを発表している。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る