イーロン・マスク氏が共同会長を務める非営利の米AI(人工知能)研究企業OpenAIは11月5日(現地時間)、自然言語の文章を生成する言語モデル「GPT-2」を公開したと発表した。
同社は2月、GPT-2を発表したが、その段階では悪意あるアプリに流用される懸念から、オープンソース化はせず、縮小版モデルと論文のみ公開した。
GPT-2は、ネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの言語モデル。800万のWebページのデータセットで訓練し、15億のパラメータを持つ。
同社は段階的にパラメータの少ないモデルを公開してきたが、これまで広範な悪用はされていないため、完全版の公開に踏み切った。完全版を公開することにより、外部の研究者らが、より高性能な合成テキスト検出モデルを開発することを期待するとしている。
機械学習エンジニアのアダム・キング氏が公開しているGPT-2の公開版のテストができるWebサイト「Talk to Transformer」も15億パラメータ版に更新されており、誰でも試すことができる。
以下は、「(SpaceXの)Crew Dragonが火星着陸に成功」と「安倍首相が辞任」というテキストを入力した結果だ。日付(自民党の「次の会議」が3月3日となっている)などでフェイクだと分かりそうだが、かなりそれらしい内容になっている。
OpenAIは、「過去9カ月のGPT-2開発の経験により、AIに関する公開標準作成のための課題についての貴重な洞察を得ることができた。この問題に関する取り組みを継続していく」としている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR