プロナビ

一部組織では利用禁止も! OpenAIの「ChatGPT」のスゴさとMicrosoftの戦略本田雅一のクロスオーバーデジタル(3/4 ページ)

» 2023年01月30日 15時00分 公開
[本田雅一ITmedia]

「勘違い」から始まっても正解に近づける

 ChatGPTは、その名の通りチャット(対話)式のユーザーインタフェース(UI)を採用している。そのこともあって、一度では正解の回答にたどり着けなくてもチャットを繰り返すことでより正確な回答に近づけるという特性も備えている。チャットボットとして利用する場合に重要な要素といえる。

 機械学習ベースのAIは、学習によって多くのデータを蓄積し、その関係性を整理することには長けている。一方で、データの質や内容を評価することはできない。

 優れた推論モデルを用意し、高品質の学習データをたくさん取りこめば「より確からしい情報」を選択するようにはなる。しかし、それはあくまでも“より確からしい”というだけで、意味を自ら理解して選び取っているわけではないということである。

 極めて論理的な(筋道がしっかりとしている)ように見えて、よくよく見てみると全くそうでない――ChatGPTがそんな不正確な回答(文章)を生成してしまう傾向にあるのは、そのような事情が背景にある。

アイティメディア ChatGPTにアイティメディアに関する質問をしてみた。一見すると最もらしい説明に見えるが、いろいろツッコミ所もある

 しかし、ChatGPTには「AIの間違い(人間で言えば勘違い)」をチャットで修正できる仕掛けも組み込まれている。

 ChatGPTは有力な情報が複数ある場合に答えを外しやすい。ネットにそこそこ情報はあるが、しかしそれほど多くはなく、分類や異なるデータの比較が難しい――そんな情報について尋ねると、予想通りに不正解を出してくる。その一例として、手前みそだが筆者(本田雅一)について、ChatGPTに尋ねてみよう。

 手始めに「本田雅一の実績を教えて下さい」と聞いてみる。筆者の姓(本田)と名前(雅一)は、共に珍しいものではないせいもあってか、全く見当違いの回答を寄せてきた。調べてみた限りにおいて、そのような実績を持つ「本田雅一」は存在しないので、「本田」か「雅一」をキーワードに、より確からしい情報を引っ張ってきたのかもしれない。

 そこで「本田雅一はジャーナリストです」と返答すると、謝罪込みで別の回答を提示してきた。しかし、全く身に覚えがない経歴が出てきた。今度は読み方をベースに別の「ほんだまさかず」のプロフィールを紹介してしまったようである。

 仕方がないので「本田雅一はテクノロジに関するジャーナリストであり、オーディオ&ビジュアルの評論家です」と詳しい返答をしてみると、「そうですね」という相づち(?)と共にようやく自分の身に覚えのある人物像にたどり着いた。

本田雅一について 筆者(本田雅一)について聞いてみた所、最初は全く見当違いの回答をされ、重ね聞きすると別の「ほんだまさかず」のプロフィールが紹介された。さらに重ね聞きをすると、ようやく心当たりのある自分にたどり着いた

 このように、「学習データには含まれるが、表層には出てこない情報」というものも存在する。そのような場合でも、会話を重ねることでより正確な「より確からしい情報」を引き出せるのだ。

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー