検索
ニュース

生成AI「Gemini」が「Google Workspace」で利用可能に/「Windows 11 2023 Update」への自動アップデート開始週末の「気になるニュース」一気読み!(2/3 ページ)

うっかり見逃していたけれど、ちょっと気になる――そんなニュースを週末に“一気読み”!

Share
Tweet
LINE
Hatena

GoogleがAI「Gemini」のオープンモデル「Gemma」をリリース

 Googleは2月21日(現地時間)、新世代の大規模言語モデル(LLM)「Gemini」のオープンモデルにあたる「Gemma」を発表した。Geminiと同じ技術に基づいて構築されており、利用規約に同意すれば、規模に関係なく商業利用や配布が可能としている。

GoogleがGeminiのオープンモデル「Gemma」をリリースした
GoogleがGeminiのオープンモデル「Gemma」をリリースした

 Gemmaという名称は、ラテン語の「宝石」に由来する。「Gemma 2B」と「Gemma 7B」という2つのサイズがリリースされている。どちらも事前学習済みモデルとインストラクション・チューニング済みモデルが用意されており、開発者のノートPCやデスクトップPCで直接実行できる。

 また、NVIDIA GPUやGoogle Cloud向けに最適化されているとのことだ。Gemmaは、他のオープンモデルと比較して、そのサイズでクラス最高のパフォーマンスを達成できるという。主要なベンチマークでは、他の大型モデルを上回るとしている。

NVIDIAが同社製GPUをGoogle「Gemma」に最適化 「Chat with RTX」もサポート

 NVIDIAは2月21日(現地時間)、Googleと協力し全てのNVIDIA AIプラットフォームにおいてGemmaの最適化を始めたと発表した。

NVIDIAがGoogleと協力し、NVIDIA AIプラットフォームのGemma最適化を開始した
NVIDIAがGoogleと協力し、NVIDIA AIプラットフォームのGemma最適化を開始した

 大規模言語モデル(LLM)の推論を最適化するためのオープンソースライブラリ「NVIDIA TensorRT-LLM」を使用し、GemmaのNVIDIA GPU上での実行速度を高速化したという。これにより、開発者は世界中の高性能AI PCで利用可能な1億台以上のNVIDIA RTX GPUのインストールベースをターゲットにできるとしている。

 また、クラウド上のNVIDIA GPUでもGemmaを実行可能だ。これにはNVIDIA H100 Tensor Core GPUをベースにしたGoogle CloudのA3インスタンスや、間もなく提供開始されるNVIDIAのH200 Tensor Core GPUも含まれる。

 この他、一般提供されている生成AIの技術デモである「Chat with RTX」にも、間もなくGemmaのサポートが追加されるとのことだ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る