メディア
ITmedia AI+ >

NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み(1/3 ページ)

» 2024年07月31日 09時00分 公開
[斎藤健二ITmedia]

 スタートアップ企業の米Etchedが発表した「Sohu」が、AI業界に新たな波紋を投げかけている。トランスフォーマーモデルに特化したこのAI専用チップは、米NVIDIAのH100 GPUと比較して20倍高速かつ低コストで動作すると主張しているからだ。

 SohuのようなAI専用チップの登場は、AI業界にどのような変革をもたらすのか。汎用性の高いGPUから特化型チップへの移行は、AI開発のアプローチをどう変えるのか。そして、こうした専用ハードウェアの普及は、ソフトウェア開発の方向性にどのような影響を与えるのか。

 オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AI(東京都中央区)の椎橋徹夫CEOに、AI専用チップがもたらす可能性と課題について聞いた。

Laboro.ai代表取締役CEOの椎橋徹夫氏

プロフィール:椎橋徹夫

米国州立テキサス大学理学部卒業後、ボストンコンサルティンググループに参画。消費財や流通など多数のプロジェクトに参画した後、社内のデジタル部門の立ち上げに従事。その後、東大発AI系のスタートアップ企業に創業4人目のメンバーとして参画。AI事業部の立ち上げをリード。東京大学工学系研究科松尾豊研究室にて「産学連携の取り組み」「データサイエンス領域の教育」「企業連携の仕組みづくり」に従事。同時に東大発AIスタートアップの創業に参画。2016年にLaboro.AIを創業し、代表取締役CEOに就任。

──現在のAIチップ市場はどのような状況でしょうか?

椎橋:現在のAIチップ市場には、大きく分けて2つの流れがあります。1つは汎用的なGPU(Graphics Processing Unit)で、もう1つは用途特化型のASIC(Application Specific Integrated Circuit:特定用途向け集積回路)です。

ベンダー アーキテクチャ AI フォーカス 売りの特徴 市場フォーカス
NVIDIA GPU 全て(学習&推論) パフォーマンス/SWスタック/エコシステム 全てのAI
AMD GPU 全て より多くのHBM/より多くのFLOPS 全てのAI
Intel Gaudi ASIC 全て 価格/性能比 エンタープライズAI
Google TPU V4p ASIC 全て Google Gemini Google内部ワークロード
AWS Trainium2 ASIC 学習 AWSクラウドでの低コスト エンタープライズ小規模トレーニング
AWS Inferentia ASIC 推論 AWSクラウドでの低コスト エンタープライズ推論
Microsoft Maia ASIC 全て Microsoft 360向け Microsoft 360アプリ/エンタープライズファインチューニング
Qualcomm Cloud AI100 ASIC 推論 ワット当たり最高性能 準大手クラウド
Cerebras CS2 ウェハースケールASIC 学習 新モデルへの容易なスケーリング 準大手クラウドとエンタープライズトレーニング
Groq LPU ASIC 推論 高速LLM推論 推論サービス
SambaNova SN30 & SN40 ASIC 学習 高速かつ効率的な学習 トレーニングサービス
Tenstorrent AI ASIC/RISC-V カスタムチップ用IP ジム・ケラー設計 組み込みチップ/データセンターAI

 まず、GPUの方を見てみると、特にデータセンター向けのAIチップ市場では、NVIDIAのGPUが圧倒的なシェアを持っています。具体的には、90%以上のシェアを占めており、ほぼ独占状態と言っても過言ではありません。米AMDも一部GPUを作っていますが、NVIDIAの独占的な状況は変わりません。

 一方で、ASIC、つまり用途特化型のチップの方では、いくつかの大手テクノロジー企業や新興企業が参入しています。例えば、米GoogleのTPU(Tensor Processing Unit)や、米AppleのNPU(Neural Processing Unit)などが挙げられます。これらは、それぞれの企業が自社の製品やサービスに最適化する形で開発しているASICです。

 そして最近、特に注目を集めているのが、米Cerebras Systemsや米Groq、米Tenstorrentといったスタートアップ企業です。これらの企業は、AIの学習や推論に特化した新しいタイプのチップを開発しています。

──なぜこのような新興企業が出てきているのでしょうか?

椎橋:この背景には、AI全般に対する大規模な資金流入があります。AIの重要性が増す中で、AIの学習や推論に必要な計算資源に対するニーズが世界的に高まっています。それに伴い、より効率的な計算能力を提供するチップへの需要も急増しています。

 また、NVIDIAのGPUの供給不足という状況も、新たなプレイヤーの参入を後押ししています。NVIDIAのGPUを製造している台TSMC(Taiwan Semiconductor Manufacturing Company)の生産能力がボトルネックとなり、GPUが不足する事態が起きています。この状況下で、新たなソリューションを提供する企業が注目を集めているわけです。

──新興企業の中でも特に注目されている企業はどこですか?

椎橋:特に注目を集めているのは、Cerebras Systems、Groq、そしてSohuを発表したEtchedです。加えて、つい先日ソフトバンクグループが買収を発表したGraphcore、理化学研究所も試験的に採用をしているSambaNova Systemsも有名です。

Etchedが発表したトランスフォーマー特化型チップ「Sohu」

 Cerebras Systemsのウェハースケールエンジンは、従来のチップ製造方法を根本から変えようとする非常に野心的なアプローチです。

 通常、半導体チップは、円形のシリコンウェハーから複数の小さなチップを切り出して作ります。これは生産効率を上げるための方法ですが、チップの大きさには制限があります。それに対してCerebrasは、ウェハー全体を1つの巨大なチップとして使用します。これにより、従来のNVIDIAのGPUと比較して、面積で50倍以上、搭載できるコア数で100倍以上、メモリ容量でギガバイトからテラバイトレベルへと大幅に増やすことができます。

 このアプローチの利点は、チップ間の通信が不要になることです。従来の方式では、複数のチップ間でデータをやりとりする必要がありましたが、ウェハースケールエンジンではそれが不要になるため、処理速度と効率が大幅に向上します。

 ただし、これほど大きなチップを製造することは技術的に非常に難しく、生産歩留まりの問題もあります。また、これだけ大規模なチップを冷却することも課題となります。

 Groqは、元GoogleのTPU開発者が立ち上げた会社で、LPU(Language Processing Unit)と呼ばれる、大規模言語モデルの推論に特化したチップを開発しています。Ethcedは最近登場した企業で、トランスフォーマーに特化したチップを開発しています。

 これらの企業は、従来のGPUとは異なるアプローチで、AIの処理を高速化・効率化しようとしている点で注目を集めています。

──GroqやEthcedのアプローチはどのようなものですか?

椎橋:Groqは、大規模言語モデルの推論処理に特化したチップを開発しています。彼らが開発しているLPUは、現在のAI、特に自然言語処理の分野で主流となっているトランスフォーマーアーキテクチャ等をベースとした言語モデルの特性に合わせて最適化されています。

 実際の性能としては、例えば700億パラメータのモデルで1秒間に350トークンを生成できるほどの速度を達成しています。これは一般的なGPUと比較して非常に高速です。

 一方、Sohuはさらに踏み込んで、トランスフォーマーアーキテクチャのみに特化したチップを開発しています。彼らのアプローチは、トランスフォーマーの処理特性に合わせてハードウェアを最適化するというものです。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.