富士通は生成AI「Takane」を軽量・省電力化する新技術を発表した。1ビット量子化と特化型AI蒸留を中核とし、GPU使用量やメモリ消費を削減しつつ高精度を維持しているという。
この記事は会員限定です。会員登録すると全てご覧いただけます。
富士通は2025年9月8日、生成AIの軽量化と省電力化を実現する新技術「生成AI再構成技術」を開発し、自社の大規模言語モデル(LLM)「Takane」を強化したと発表した。同技術の中核となるのは、世界最高精度をうたう1ビット量子化技術と、軽量化と精度向上を両立させる特化型AI蒸留技術だ。これにより、Takaneは従来のGPU4枚を要する規模のモデルを、GPU1枚で高速かつ高精度に実行可能となった。
量子化技術を適用したTakaneは、メモリ消費量を最大94%削減しつつ、精度維持率89%を達成し、推論速度は量子化前の3倍に高速化されているという。従来の主流手法「GPTQ」(モデル名「GPT」と量子化技術「PTQ」《Post-Training Quantization》を組み合わせた名称)の精度維持率が20%以下にとどまるのに対し、本技術はそれを上回る成果を示している。この軽量化により、スマートフォンや工場設備などエッジ環境でのAIエージェント稼働が可能となり、応答性やセキュリティ強化、運用時の電力削減にも寄与するという。
本技術は以下2つのコア技術から成る。
一つは「量子化技術」であり、大規模モデルにおける膨大なパラメーター情報を効率的に圧縮することで、モデルを小型化しつつ精度を維持する。従来は層が深いニューラルネットワークにおいて量子化誤差が蓄積する課題があったが、富士通は誤差を層間で制御するアルゴリズム「QEP」(Quantization Error Propagation)を開発し、この問題を克服した。また自社の最適化アルゴリズム「QQA」(Quasi-Quantum Annealing)を活用し、1ビット量子化を実現した。
もう一つは「特化型AI蒸留技術」だ。これは基盤モデルから不要な知識を削除し、必要な能力を強化した上で、複数の候補構造を生成し、顧客要件に合致するモデルを自動選定する仕組みだ。その後、教師モデルから知識を蒸留することで、特定タスクにおいて基盤モデルを超える精度を持つ軽量モデルを構築できる。実証において、商談勝敗予測タスクにおいて推論速度を11倍にしつつ精度を43%改善し、GPUメモリ使用量と運用コストを7割削減する成果が得られた。画像認識タスクにおいても、既存蒸留技術と比較して未学習物体の検出精度を10%向上させている。
富士通は、この技術を適用したTakaneのトライアル環境を2025年度下期から順次提供する予定だ。Cohereの研究用オープンウェイトモデル「Command A」を量子化したモデルを、「Hugging Face」を通じて公開するとしている。
このような取り組みの背景には、LLMの大規模化が進み、多数の高性能GPUを必要とすることによる、開発、運用コストや環境負荷の増大がある。特定領域に特化した高精度かつ軽量なモデルのニーズも高まっている。この技術はそうした要請に応えるものであり、金融や製造、医療、小売といった業種ごとに適したAIエージェントの開発が可能になるとされる。
富士通は今後、モデルのメモリ消費量を最大1000分の1に削減しつつ精度を維持する研究を推進する。将来的には複雑な因果関係を理解し、自律的に最適な解決策を提示できるAIアーキテクチャへ発展させることを目指し、持続可能で高効率な生成AIの社会実装を推進する構えを示している。
ハルシネーションはなぜ起きるのか OpenAIの研究が示す「正答率信仰の罠」
「オンプレミス版Gemini」提供開始 KDDIが初期導入に参加
国内AIエージェント基盤市場が8倍に急拡大 2029年度に市場規模135億円予想Copyright © ITmedia, Inc. All Rights Reserved.