AI開発企業の米inceptionは2月28日(現地時間)、新型の大規模言語モデル(LLM)「Mercury Coder」を発表した。画像生成AIでよく使われている学習モデル「拡散モデル」を取り入れたLLMで、従来のLLMよりも最大10倍高速で動作するという。同社はこれを「diffusion large language models」(dLLM)と称し「新世代のLLM」と説明している。
Mercury Coderは、コード生成に特化したdLLM。従来型のLLMのように1トークンずつ生成する仕組みではなく、拡散モデルの“ノイズ除去を繰り返して鮮明化を図る”方法を採用している。これにより現行のLLMよりも5〜10倍高速で、低コストで高品質な出力結果を実現するという。
現在のLLMの多くは、順番に1つのトークンずつ文章を生成する「自己回帰モデル」を採用している。この場合、全てのトークンを一斉に生成することはできず、各トークンを生成するには数十億パラメータに及ぶニューラルネットワークを求められる。このため、膨大な推論タスクを実行する際などは、多大な計算コストと処理時間を必要とする。
同社はこの課題を解決するため拡散モデルに注目。拡散モデルは、ノイズ除去を繰り返すことで出力結果を鮮明化していく仕組みで、同社は「直前の出力のみを考慮するわけではないため、推論や応答の構造化に優れている」「出力を継続的に改善できるため、ミスやうそを修正できる」などと評価している。拡散モデルはこれまで画像や動画生成AIなどに活用されていたが、文章生成などへ適用できた成功例はなかったという。
同社のWebサイトでは、GPT-4o MiniやClaude 3.5 Haikuなどとの性能比較結果を公開。他LLMと同等以上の性能を記録しており、特にスピード面では圧倒的な差を見せた。
「dLLMの優れた点は、そのスピードだ。スピードを最適化した自己回帰モデルでも、1秒間に最大200トークンしか生成できない。しかし、市販のNVIDIA H100上でMercury Coderを実行すると、1秒間に1000トークン以上のスピードで処理でき、5倍のスピードアップを実現可能としている」(同社)
Mercury Coder同社のWebサイトにて一般公開中。利用には氏名やメールアドレスを登録する必要がある。
【詳報】GPT-4.5の特徴は? 教師なし学習で性能向上、OpenAI史上最大サイズ、API利用は超高価
Google、科学者の研究を助けるマルチエージェントAI「AI co-scientist」提供開始
コロプラ、画像生成AI「Stable Diffusion」開発元と提携 「生産性の向上を加速」
君には見えるか? “錯視画像”を作り出す生成AI 「遠近で変わる絵」「白黒と色付きで変わる絵」など
話題のAIベンチャー「Sakana AI」が画像生成AIを公開 “自律進化”技術で、推論速度が約10倍高速にCopyright © ITmedia, Inc. All Rights Reserved.