英Stability AIの日本法人であるStability AI Japan(東京都渋谷区)は8月10日、日本語特化の大規模言語モデル(LLM)「Japanese StableLM Base Alpha 7B」を公開した。パラメータ数は70億。ライセンスはApache License 2.0で、商用利用可能だ。
LLMの性能評価ツール「lm-evaluation-harness」で調べたところ、サイバーエージェントやrinnaが公開している日本語LLMよりも高スコアを記録した。学習には、LLM学習のためのライブラリ「GPT-NeoX」をアレンジしたものなどを利用しており、学習したトークンは延べ7500億に及ぶ。
また、このモデルに追加学習を行い、ユーザーの指示に受け答えできるようにしたモデル「Japanese StableLM Instruct Alpha 7B」も併せて公開。このモデルでは「西郷隆盛はどんな人物ですか?」などの質問に受け答えできる。性能評価はBaseモデルよりもさらに高いが、商用利用はできず、用途は研究目的での利用に限定している。
どちらのモデルもHugging Faceからダウンロードできる。
無料で商用可、ChatGPT(3.5)に匹敵する生成AI「Llama 2」 Metaが発表、Microsoftと優先連携
サイバーエージェント、日本語の大規模言語モデルを一般公開 最大68億パラメータ 商用利用可能
「りんな」開発元、大規模言語モデルを公開 36億パラメーターで日本語特化
チャットAI「StableLM」発表 オープンソースモデルで商用可 「Stable Diffusion」開発元から
ChatGPTの“脱獄プロンプト”登場 文末に書くだけで「爆弾の作り方」「IDの盗み方」に回答Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR