CxO Insights

松尾豊東大教授が明かす 日本企業が「ChatGPTでDX」すべき理由(2/3 ページ)

» 2023年11月10日 09時02分 公開
[河嶌太郎ITmedia]

松尾氏「ChatGPTはある種の社会現象」

 ステップ1が「教師あり学習(ファインチューニング)」と呼ばれるものだ。これは、プロンプトとそれに対する適切な回答のペアをアノテーター(人間)が考案し、データセットを作成し、またそれを用いて「教師あり学習」をするものだ。

 ステップ2が「RLHF」と呼ばれる報酬モデルの学習だ。これは実際に人間と対話をさせて、よかったものに○、悪かったものに×をつけて学習させる。そしてステップ3に、AIにたくさんの○がもらえるよう強化学習することによって、○がたくさんもらえるような会話列を生成できるようになってきた。

 このため、ChatGPTではユーザーに誹謗中傷をせず、変なこともしゃべらず、非常に礼儀正しい振る舞いをする特徴がある。従来の対話型AIはリリースしてすぐに炎上することがあったものの、ChatGPTでは非常に安心して使えるものになった。

 松尾教授は「ChatGPTはある種の社会現象」と分析する。

 「なぜ社会現象かというと、技術の蓄積はこれまで数年間ずっと着々とされてきました。その中で、自己学習をきちんとやることによって誹謗中傷をしない、差別的な発言をしない、攻撃的なことを言わないモデルになったがゆえに、多くの人が安心して使えてユーザー数が一気に伸びました。そういう中で、新しい使い方に関しての総括的な現象が起きたのです」

 使い方を実演する人の様子を見て、それを見た人が刺激を受けて、さらに新しい使い方を考えてみる。この連鎖が起こっていて「世界中が創発のプロセスに巻き込まれた」と松尾教授は話す。

 そして、世界中の人が「この大規模言語モデルが世界を変える」と確信することによって、連鎖的に投資を呼び込むことが現状起こっている。特に今年に入ってからの技術革新のスピードはすさまじく、毎週のように新しい大きな発表が相次いでいる。松尾教授は「まさに第4次AIブームに入ったと言ってもいい」と語る。

 大規模言語モデルの興味深い点として、松尾教授は「大規模言語モデルは『覚えて』いる。必要な程度に汎化する」点を挙げる。これはつまり、従来のAIが未知のデータに対しての性能を重視していた一方、大規模言語モデルは暗記重視だということだ。膨大なデータを事前に「覚えて」おき、そのパターンの類型化と組み合わせによって基本的に対処しているのが特徴だ。これは例えるなら数学の解法暗記にも似ている。

 これについて松尾教授は「より生物学的なプロセスに近いのでは」と話す。

 「例えば生物の進化を考えたとき、汎化(未知の問題への対処方法)までサンプルを集めていると、寿命で死んじゃうんですよね。だから、とりあえずやり方を丸覚えして、サンプルがたまってきたところで汎化するプロセスをとります。これは非常に良い戦略で、同じようなことが人間の脳でも、機械学習の中でも起こっていることなのだと思います」

 生成AIがやっていることは「次の単語を予測する」ことに過ぎない。だが、例えば数学の答えを予測するためには、その数学の問題を解く必要がある。するといつの間にかなぜか数学ができるようになっているのだ。他にも、小説の会話文を予測するために「心の理論」のようなものが学習されているように、予測をベースとした学習も起きているという。

 「こうしたことがいろいろと起こっていて、生成AIは、人間の知能における予測の重要性を表しているのだと思います。人間も、自分の入力を常に予測しますが、入力を予測するために必要な特徴をまた予測しています。これをずっと繰り返すことで、世界を構造を持ったものとして見ているのだと思います。ですから、人間のプロセスに近いことをやっているので、相当筋がいい手法といえるでしょう」(松尾教授)

 ただ、生成AIは人間の知能と完全に同じアルゴリズムではない。「完全に人間と同じように」という観点では限界はあるものの、既にかなり多くの概念が学習されているという。何かに「なりきる」ロールプレイングにおいても、ChatGPTは驚くべき能力が発揮されている。AIが一般的に苦手とされている感情のシミュレーションでも、感情の流れを順番に考えられるようになることで精度が上がり、今後も分析が進んでいくという。

大規模言語モデルのスケール例

Copyright © ITmedia, Inc. All Rights Reserved.