Googleは2月21日(現地時間)、新世代の大規模言語モデル(LLM)「Gemini」のオープンモデルにあたる「Gemma」を発表した。Geminiと同じ技術に基づいて構築されており、利用規約に同意すれば、規模に関係なく商業利用や配布が可能としている。
Gemmaという名称は、ラテン語の「宝石」に由来する。「Gemma 2B」と「Gemma 7B」という2つのサイズがリリースされている。どちらも事前学習済みモデルとインストラクション・チューニング済みモデルが用意されており、開発者のノートPCやデスクトップPCで直接実行できる。
また、NVIDIA GPUやGoogle Cloud向けに最適化されているとのことだ。Gemmaは、他のオープンモデルと比較して、そのサイズでクラス最高のパフォーマンスを達成できるという。主要なベンチマークでは、他の大型モデルを上回るとしている。
NVIDIAは2月21日(現地時間)、Googleと協力し全てのNVIDIA AIプラットフォームにおいてGemmaの最適化を始めたと発表した。
大規模言語モデル(LLM)の推論を最適化するためのオープンソースライブラリ「NVIDIA TensorRT-LLM」を使用し、GemmaのNVIDIA GPU上での実行速度を高速化したという。これにより、開発者は世界中の高性能AI PCで利用可能な1億台以上のNVIDIA RTX GPUのインストールベースをターゲットにできるとしている。
また、クラウド上のNVIDIA GPUでもGemmaを実行可能だ。これにはNVIDIA H100 Tensor Core GPUをベースにしたGoogle CloudのA3インスタンスや、間もなく提供開始されるNVIDIAのH200 Tensor Core GPUも含まれる。
この他、一般提供されている生成AIの技術デモである「Chat with RTX」にも、間もなくGemmaのサポートが追加されるとのことだ。
IntelがAI時代を見据えた半導体の「受託生産」ロードマップを発表 2030年までに世界第2位を目指す
もっと早く知りたかった? 壁面の照明スイッチにボットを簡単取り付けできるオプション2製品を試す
スマホから家電製品のスイッチを押せる「SESAME bot」はどこまで使える? SwitchBotボットと使い比べてみた
“40年前の名機”をオマージュした「AYANEO Retro Mini PC AM01」をセットアップした
デルのプレミアムノートPC「XPS」に2024年モデル Core Ultraプロセッサを搭載してパワーアップCopyright © ITmedia, Inc. All Rights Reserved.