何か疑問に思うことがあれば、すぐにAIに聞くことが習慣になってきた。僕の場合はリサーチャーや研究者向けに特化したサービスである「Perplexity」というAIツールを使うことが多い。Perplexityのおかげでリサーチにかける時間がかなり短縮し、随分と生産性が向上したように思う。
GoogleやMicrosoftの製品群にはAIがサイドバーなどに表示されるようになってきたようで、何かする前にまずAIに相談するという人が今後ますます増えることだろう。Metaの最新のスマートグラスにはAIが搭載されたし、そのうちユーザーの全ての行為に関してAIが何らかのアドバイスするようになることだろう。チャット型AIが、マスメディアやソーシャルメディアよりも、影響力を持つようになるのだと思う。
メディア論で有名なカナダの文明批評家マーシャル・マクルーハンは「古いメディアは、新しいメディアのコンテンツになる」と言う。口頭伝承は活字文化のコンテンツとして、活字文化はテレビ文化のコンテンツとして再利用されてきた。そして今、インターネット上の情報は、チャット型AIのコンテンツになろうとしている。つまりチャット型AIは、新しいメディアなのだと思う。
今後ますます影響力を持つであろう新しいメディア、チャット型AIは、果たして信用に足るのだろうか。
チャット型AIは、しらっとウソを言う。いわゆるハルシネーションと呼ばれる問題だ。僕は、チャット型AIをリサーチアシスタントのように使っている。なのでハルシネーションの問題は自分にとってはかなり大きな問題だ。
ChatGPTやGoogle Bardはしらっとウソをつくことがあるので、個人的にはPerplexiyを一番よく使っている。Perplexiyは最初に情報ソースがリストアップされるので、それを見ればPerplexiyの言っていることがどの程度正しいのか推測できるからだ。
ただChatGPTやBardには、ブラウジング機能や各種データベースがプラグインとして追加されきているので、ハルシネーションの問題は軽減されてきていると思う。また今後は事実確認が専門のAIツールなんかも出てくるだろうから、ハルシネーションはそれほど大きな問題ではなくなるように思う。
問題は言語AIが、今日の人類が執筆したテキスト情報を学習して賢くなったAIだというところにある。今日の人類の意見が真実なのだろうか。過去の歴史を見る限り、その時代に真実と信じられていたことが、次の時代には否定されるケースが多い。
17世紀にChatGPTが存在していたとしよう。ガリレオの地動説に対してChatGPTは何と答えただろうか。その当時の文献などで学習したのだろうから、その当時の考え方を反映して、ガリレオの言っていることを間違いだと答えたのではないだろうか。
チャット型AIが次のメディアとして大きな影響力を持つ中で、われわれはチャット型AIの言うことをうのみにしていいのだろうか。
この問題は、今のAIがインターネット上のテキスト情報を中心に学習していることから起こる問題だ。AIは今後、マルチモーダルになっていく。テキスト情報以外にも音声、映像などのデータをも学習していくようになるだろうし、ロボットやIoT機器などから触覚データ、気象データ、その他のデータを通じて学習していくことになる。物理の法則も理解し、数学も得意になっていく。
前出の17世紀のAIが、気象データや地理のデータなどを持ち、数学も得意であれば、ガリレオの地動説が正しいと判断したことだろう。
つまり今後AIが進化し続ければ、この問題は解決するのだと思う。
問題はいつAIがそこまで進化するのか、ということだ。宇宙の謎を全て解明するまでにAIは進化するのだろうか。AIはデータによって進化する。宇宙の謎を解明できるだけの宇宙に関するデータを集めることができるのだろうか。
そう考えると、AIが真理に到達するまでに、まだまだ時間がかかりそうだ。
その間、人類はどうすればいいのだろう。1つには、やはりこれまで培ってきた科学的な思考方法で、何が正しいのかを見極めるということが大事だ。ただ科学的な思考でも世の中には分からないことが山のようにある。今日の科学を盲信することなく、謙虚な態度と自分の心の奥底の直感で、その時々の判断を下すしかないように思う。
本記事はエクサウィザーズのAI新聞「チャット型AIの言うことを、信じる?信じない?」(2023年10月11日掲載)を、ITmedia ビジネスオンライン編集部で一部編集の上、転載したものです。
© エクサウィザーズ AI新聞
Special
PR注目記事ランキング