初心者でも分かる生成系AI入門:ChatGPTが開いた「AIブーム3.5」の扉(後編)(1/2 ページ)

» 2023年06月09日 17時00分 公開
[i4U]
AIのイメージ AIのイメージ

この記事について

この記事は、オウンドメディア「i4U」(あいふぉーゆー)からの転載です。

i4Uとは

「あなたのためのインターネット(internet for you)」を掲げたメディアが「i4U」です。読者と一緒に楽しむインターネットの世界をメディア上に再現していき、あなたの世界にインパクトを与えることを目指しています。

筆者紹介:森川 幸人

ゲームAI設計者、グラフィック・クリエイター、モリカトロン株式会社代表取締役、筑波大学非常勤講師

ゲームAIの研究開発、CG制作、ゲームソフト、アプリ開発を行う。ゲーム「がんばれ森川君2号」「ジャンピング・フラッシュ」「アストロノーカ」「くまうた」「ねこがきた」などを開発。ゲームAIに関する論文「ゲームとAは相性がよいのか?」(2017年・人工知能学会)などを執筆。

Twitter:@morikawa1go


 ChatGPTの登場で、にわかに活気づいたAIの世界。ChatGPTには間違いもありますが、AIを古くから知る人にとって、それは「不思議」でも「残念」でもないそうで……? ゲーム系AIの第一人者でグラフィッククリエイターの森川幸人さんによる「初心者でも分かる生成系AI入門」、後編では生成系AIの現状や課題についてゆるく教えてもらいました。

AI研究者にとってChatGPTの「間違い」は想定内

 ChatGPTの登場以来、たくさんの人が遊んだ結果をSNSなどに投稿しています。それを読んでいると驚き以外にも「なるほどなー」と気づかされる点があります。多くのユーザーが「マジ、すげー」とビックリしていると同時に「正しくないことを返してくる」と残念がっています。

 昔から対話型AIに取り組んでいる身としては、ChatGPTに対しては「マジすげー。勝負は終わった。以上!」というのが素直な感想で「正しいことを言わないことがある」ことに対しては、さほど残念に感じないというより、「Transformerという技術を使っているのだからしょうがないよね。むしろ、それでもここまでできるのか!」という気持ちがあります。

 「Transformer」は2017年にGoogleとトロント大学で開発された自然言語を処理する仕組みで、最初は翻訳を活躍の場と想定していたようですが、いざフタを開けたところとんでもないポテンシャルのある機能であることが分かり、今ではテキスト生成AI(以後、TGA)には欠かせない学習モデルとなっています。

 Transformerの機能や構造についての分かりやすい説明は、インターネット上にいっぱいありますので、興味のある方は探してみてください。基本構造の理解は超簡単ですが、「細かいところまでの理解は地獄」という覚悟が必要です(笑)。

 とはいえ、Transformerをざっくりと説明すると、今まで人間が作ってきた文章を利用して、「言葉A」と関連してよく出てくるのは「言葉B」である、といった結びつきや、文節の関連付けを学習して応用するという仕組みです。

 例えば、「柿食えば」という言葉は「岩にしみ入る」につながるより、「鐘が鳴るなり」につながる文章の方が断然多い。「梨も食う」につながる例はない、といった言葉と言葉の関連付け(の重み)を学習していきます。そしてその学習を利用して、ユーザーが「柿」というキーワードを使えば、即座に“「柿食えば」→「鐘が鳴るなり法隆寺」→「といいますが……”といった具合に文章を作っていきます。

 つまりは基本的に統計的な判断をしているわけです。だから、人間のように真に言葉を理解していない。それで、正しくない回答をしてしまうわけです。次につなげる単語なり文節は出現頻度に応じて確率的に選ばれるので、確率のいたずらで間違った選択をすることがあるのです。

 そういった背景があるため、AI研究者たちは、ChatGPTがたまに間違ったことを言うと「Transformerを使ってるとそういうこともあるよねー」と、つい同情的になってしまうのですが、そうした事情を知らない人は、ちょっと失望するかもしれません。

 ほとんどの場合は素晴らしく正確な内容を返してくれるので、ちょっとの間違いがかえって目立ってしまうのでしょう。

不気味の谷の住人

 「不気味の谷」という言葉があります。芸術やロボット工学、心理学などの世界で使われますが、人工物が、ある一定のところまでであれば好感度が高くても、その線を超えて人間らしさを獲得すると、急激に「キモい、怖い、残念」と負の気持ちを持たれてしまう現象です。

 TGAもChatGPTの登場により、いきなりその域に達してしまったのかもしれません。

 一昔前のTGAなら、人の発話や会話と比べられるようなレベルにまったく達していませんでした。そのため、人間から「AI君もがんばっているよね」と余裕を持って好意的に、安心して接してもらえていた。しかし、いざ人間っぽくしゃべれるようになると今度は「TGAは怖い、危ない、間違えたことを言うので残念」と、TGAが不気味の谷の住人と見なされてしまうのも不思議ではありません。

 もう1つ問題点があります。

 学習する人の文章や会話データは、インターネット上から採取されます。ここでも既存のDB(データベース)が活躍します。GPT-xではCommon Crawl(インターネット上の文書や画像などを周期的に収集/アーカイブし、無償でデータベースを提供する非営利団体)が公開しているDBを利用しています。

 これは誰でも自由にアクセスできるDBですが、TB(テラバイト)サイズの大きさがあり、GPT-3はそのうち45TB程度のテキストデータで学習しているといわれています。

 このように、GPT-xはインターネット上に転がっている文章をAIの学習に使っていますが、それゆえ起こる問題もいくつかあります。

 1つは情報の鮮度です。GPT-3は2021年までに採取した文章を元に学習しています。そのため、2022年以降に発信されたネタについては学習できていません。例えばロシアがウクライナに軍事侵攻したことを知らないのです。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー