日本マイクロソフトのチャットbot事業を分社化したrinna(東京都渋谷区)は4月7日、日本語に特化した「GPT-2」の言語モデルをオープンソース化した。製品開発に向けた実験のために構築したもので、「GitHub」や自然言語処理モデルのライブラリ「HuggingFace」で公開している。
GPT-2は、AI研究企業の米OpenAIが提供する言語モデル。「人間が使う言葉らしさ」を確率にしたもので、ある単語や文が与えられたときに、次に来る確率が高い自然な単語を推定するという。米NvidiaのGPU「Tesla V100」を使い、70GBの日本語テキストを約1カ月かけてトレーニングさせたため、高度な日本語の文章を生成できるとしている。
rinnaは今後、パラメータの数やトレーニングさせたデータが異なるモデルも公開するとしている。
AIチャットbotを200件のデータで構築 従来の60分の1に 「りんな」開発元が新技術
日本MSから独立した“元女子高生AI”「りんな」、新会社rinnaで事業スタート
米Microsoft、日本MSの「りんな」を含むチャットbot事業を分社化
キーワードから小説や画像を自動生成 自然言語処理の革命児「GPT-3」の衝撃Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR