Googleは2月21日(現地時間)、新世代の大規模言語モデル(LLM)「Gemini」のオープンモデルにあたる「Gemma」を発表した。Geminiと同じ技術に基づいて構築されており、利用規約に同意すれば、規模に関係なく商業利用や配布が可能としている。
Gemmaという名称は、ラテン語の「宝石」に由来する。「Gemma 2B」と「Gemma 7B」という2つのサイズがリリースされている。どちらも事前学習済みモデルとインストラクション・チューニング済みモデルが用意されており、開発者のノートPCやデスクトップPCで直接実行できる。
また、NVIDIA GPUやGoogle Cloud向けに最適化されているとのことだ。Gemmaは、他のオープンモデルと比較して、そのサイズでクラス最高のパフォーマンスを達成できるという。主要なベンチマークでは、他の大型モデルを上回るとしている。
NVIDIAは2月21日(現地時間)、Googleと協力し全てのNVIDIA AIプラットフォームにおいてGemmaの最適化を始めたと発表した。
大規模言語モデル(LLM)の推論を最適化するためのオープンソースライブラリ「NVIDIA TensorRT-LLM」を使用し、GemmaのNVIDIA GPU上での実行速度を高速化したという。これにより、開発者は世界中の高性能AI PCで利用可能な1億台以上のNVIDIA RTX GPUのインストールベースをターゲットにできるとしている。
また、クラウド上のNVIDIA GPUでもGemmaを実行可能だ。これにはNVIDIA H100 Tensor Core GPUをベースにしたGoogle CloudのA3インスタンスや、間もなく提供開始されるNVIDIAのH200 Tensor Core GPUも含まれる。
この他、一般提供されている生成AIの技術デモである「Chat with RTX」にも、間もなくGemmaのサポートが追加されるとのことだ。
Copyright © ITmedia, Inc. All Rights Reserved.