メディア
ITmedia AI+ >

「スマホで動く」80億パラメーターLLM――1.15GBで実運用レベルうたう「1-bit Bonsai」が話題に

» 2026年04月06日 14時25分 公開
[ITmedia]

 高性能モデルがスマホで動くサイズに――米カリフォルニア工科大学発のAIスタートアップ企業、PrismMLが3月31日(現地時間、以下同)に発表した大規模言語モデル(LLM)「1-bit Bonsai」が話題になっている。学習の方法を工夫することでメモリ使用量を1.15GBまで抑えつつ、エッジ環境で実運用レベルの精度を実現したという。

 一般的に、LLMのサイズを小さくする手法として、学習済みのモデルの重みを低いビット精度に変換する「量子化」が使われる。しかし極端に低いビット数に量子化すると、実用レベルの精度を維持するのが難しい。

 1-bit Bonsaiのアプローチはこれとは異なり、入力されたテキストを数値に変換する部分(埋め込み層)から、文脈を読み取る部分(アテンション層)、最終的な回答を生成する部分(LMヘッド)まで、モデル全体を1ビットで設計したことでメモリ使用量を抑えたとPrismMLは説明する。後から精度を落とすのではなく、最初から1ビットで高い性能を出せるよう学習の方法自体を工夫した形だ。

 同社が公開したベンチマークテストの結果によると、1-bit Bonsai 8Bは同じ8Bクラスのモデルに匹敵するスコアを維持している。同社が独自に定義する「インテリジェンス密度」(ベンチマークの平均エラー率の負の対数をモデルサイズで割った指標)では、1-bit Bonsai 8Bが1.06/GBを記録。同パラメータクラスの「Qwen3 8B」の0.10/GBを大きく上回った。

1-bit Bonsai 8Bと、他社の8Bクラスモデルのベンチマークスコアを比較した表(出典:公式ブログ)

 1-bit Bonsaiのモデルの重みはApache 2.0ライセンスで公開されている。AppleのデバイスではMLX経由で、NVIDIAのGPUでは「llama.cpp CUDA」で動作する。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SpecialPR
あなたにおすすめの記事PR