革命かパンドラの箱か、新AIツールGPT-3の波紋星暁雄「21世紀のイノベーションのジレンマ」(4/5 ページ)

» 2020年07月29日 07時01分 公開
[星暁雄ITmedia]

GPT-3は意味を理解せず、常識も備えていない

 前述したように、GPT-3には限界があり、危険性もある。

 GPT-3は生成する文章(あるいはプログラムコード)をチェックして論理的な整合性を確かめたり、現実世界に関する知識体系(常識)と比べて間違いがないかを調べたり、差別表現がないかを確認したりはしない。タスク結果が常識や物理法則に合うとは限らない。また500語以上の長文では文章の一貫性がなくなる。出力される文章が正しいとは限らないことが、GPT-3のひとつの限界だ。

 例えば「私の足にいくつ目がありますか?(How many eyes does my foot have?)」という日常ではあり得ない質問に対して、GPT-3は「あなたの足には目が2つあります(Your foot has two eyes)」と答えた。

 GPT-3は「目が2つある」というそれらしいテキストを、質問文と組み合わせて返しているだけなのだ。ちなみに、「ハワイから17にジャンプするには、いくつ虹がかかりますか?(How many rainbows does it take to jump from Hawaii to seventeen?)」というシュールレアリズム的な質問文に対して、GPT-3は「ハワイから17にジャンプするには、2つの虹がかかります("It takes two rainbows to jump from Hawaii to seventeen)」と返した(英Independentの記事)。

 GPT-3は「それらしい」テキストを生成するツールであって、質問に対して必ず正しい回答を返すわけではないのだ。

見破るのが難しいフェイクニュースを作れてしまう

 GPT-3の開発元であるOpenAIは、一世代前のモデル「GPT-2」の段階でその言語モデルがフェイクニュース製造装置として使えることの危険性を評価、認識していた。

 ある研究では、GPT-2を使い合成したテキストを複数の人々に読ませたところ、定評ある新聞であるNew York Times紙に掲載された本物の記事と比べて「同程度の信憑(しんぴょう)性がある」と判断された(本物が83%、合成テキストが72%、OpenAIのBlog記事より)。つまり、GPT-2を使えば信憑性が高いフェイクニュースを簡単に作れてしまう。

 GPT-3は、さらに性能が高いフェイクニュース製造装置として使える。GPT-3の論文では「言語モデルが大規模になるほど、人々が『自動生成されたニュース記事』を見破ることは難しくなる」ことを、実験で確認したデータを掲載している。GPT-3が生成した最も「それらしい」フェイクニュースを見破った人は、わずか12%だった。

GPT3_sample_fakearticle.png,,GPT-3が生成した最も見破りにくいフェイクニュース。見破ることができた人々は対象集団の12%に過ぎなかった

 GPT-3は、何も手を加えずに高性能なフェイクニュース製造マシンとして使えてしまう。大量の偽記事を流して社会を混乱させる使い方をされかねない。OpenAIがGPT-3の本体である「言語モデル」そのものを外部に公開しない理由の1つはそこにある。

Copyright © ITmedia, Inc. All Rights Reserved.