なぜ人々は、ChatGPTという“トリック"に振り回されるのか? Google「Bard」参戦、チャットAI戦争の行方:清水亮の「世界を変えるAI」(5/8 ページ)
OpenAIが2022年に発表した対話型AI「ChatGPT」の衝撃は、米国ビッグテック最強の一角であるGoogleを動揺させた。Googleは急ぎ「Bard」と名付けたチャットボットを投入し、巻き返しを図る。
最も簡単なチャットボットでさえ、最低限の知性を備えているように見える
イライザがなぜジョークだったのか、なぜ多くの人がそれに騙されてしまったのか。筆者は子供にプログラミングを教える「秋葉原プログラミング教室」の初期段階の教材で、まさにこの「チャットボット」の作り方をカリキュラムに入れている。
単純なチャットボットは、わずか二行で作ることができる。
buffer=["こんにちは"]
buffer.push(prompt(buffer[Math.floor(buffer.length*Math.random())]))
興味がある人はこれをブラウザの開発者タブでJavaScriptコンソールを立ち上げて実行してみてほしい。
「こんにちは」というプロンプトが現れるので、ここに何らかの反応を入力する。例えば「どうもどうも」などだ。再び二行目のコードを打ち込む(コピペで良い)と会話を続けることができる。
これで会話するとこんな感じになる。
「こんにちは」
「どうもどうも」
「こんにちは」
「さっき聞いたよそれは」
「どうもどうも」
「挨拶はもういいからさ」
「挨拶はもういいからさ」
「うん。別の話をしよう」
「さっき聞いたよそれは」
「え、言ったっけ?」
「どうもどうも」
「君、なんかおれのこと誤魔化そうとしてない?」
「え、言ったっけ?」
「なにを?」
「うん。別の話をしよう」
これは実際の会話だが、仕組みが分かっただろうか。つまり、この最も単純なチャットボットは、ユーザーが入力した言葉を覚えておいて、単にランダムに過去の発言を選んで出しているだけなのである。
それでもある程度は会話が成立しているように見えてしまうのは、コンピュータではなく、人間が、「会話の流れ」を頭の中に作ってしまうという習性があるからだ。こうした習性はモンタージュ理論・クレショフ効果などと呼ばれる。全く無意味な言葉の羅列から、意味を見出してしまう性質である。
「そんなもの信じられるわけない」と思うかもしれない。でも、もしも原理を聞かずに、「この人の相手をしてください」と言われたらどうだろう。もしくは前置きなしに、この会話が繰り広げられたらどうだろう。例えば、耳の遠い、ちょっとボケたおじいちゃんだったら、こんなやりとりになるのではないか、と想像してしまうかもしれない。
フランスの詩人が書いた四行詩に、世界の終わりの予言を見出してしまう人もいるのだ。コンピュータが出したデタラメな受け答えを見ても、人間は勝手に自分の頭のなかで、相手の人格を見出してしまう。
これを少しだけ巧妙に作ったのがイライザだ。イライザの原理は、まず前提として、イライザは精神科医であり、やってくる人はカウンセリングにきた患者という設定を置くことにある。この設定によって、ユーザーは必然的にイライザに相談をしなければならなくなる。
例えば、イライザとの会話はこうなる。
「こんにちは。あなたのファーストネームは?」
「リョウ」
「そうですか。リョウさん。なにかお悩みがあるそうですね?」
「はい」
「どんなお悩みでしょうか?」
「実は弟がギャンブルに依存していて……」
「ギャンブルはできればやめたほうがいいでしょう」
「そうなんです。それで父と弟が喧嘩していて……」
「お父さんはどんな方ですか?」
「サラリーマンで、いまは定年しています」
「もっと聞かせてください」
「そうですね、父はエンジニアでした」
「エンジニアは素晴らしい仕事ですね。聡明さを要求される職業ですね。あなたはどんなお仕事を?」
このような具合である。この会話のトリックは極めて簡単だ。
「父」という言葉が発言に含まれていれば、「お父さんはどんな方ですか?」と聞く。「ギャンブル」という言葉が発言に含まれていれば、「ギャンブルはできればやめたほうがいいでしょう」と当たり障りのない答えを返す。エンジニアも同様。どれにもあてはらなければ、「もっと聞かせてください」など、相手の発言を引き出す定型文を投げる。
今でこそ、「定型文」というのは身近になったが、それはメールやメッセンジャーが普及しきったからだ。そんなものがない1960年代に「定型的な返しだけで会話が成立する」と想像するのは難しい。だからワイゼンバウムはすごかったのだが、同時に会話の中身がないことは作った本人がよく承知していた。
もっと複雑なこともできるが、重要なのは、それが全てトリックであるということだ。イライザは一大ブームを巻き起こし、さまざまなものに影響を与えた。
イライザを直系の祖先として持つのが、最近多くの企業が取り入れ始めた「チャットによるサポート」サービスだ。しかし一度使えば分かるが、会話を楽しむどころか、質問に的確に答えてくれることのほうが珍しい。
なぜこういうことが起きるかといえば、いまのチャットボットによるサポートは、FAQのユーザーインタフェースを少し変えただけのものだからだ。つまり、チャットボットのシナリオとして用意されていないものは、まったく対応できない。一時期盛り上がったIBMのWatsonと呼ばれる一連のソリューションが、結局はチャットボットになり、最終的には人々を落胆させた原因でもある。
チャットボットのシナリオの記述には、例えばAIML(Artificial Intelligence Markup Language)のようなマークアップ言語が使われる場合があるが、AIMLを一度触ってみれば、これがいかに不完全なものか分かる。
筆者らの研究チームは、2020年にAIMLを深層学習で独自に拡張したAIIML(Artificial Illusional Inteligence Markup Language)を開発した。筆者らの開発したAIIMLは内部にspaCyやGiNZAなどを使った構文解析や、PythonやJavaScriptでの拡張が可能で、音声認識と音声合成の機能を備えていた。声で指示するだけでWikipediaを調べて読み上げたり、地図を表示したり、図を書いたりWebサイトを作らせたりすることができる。
このAIIMLでは内部でGPT-3も使っているが、GPT-3に投げるとかなり適当な答えを返してくる。以前、焼肉屋さんで実験的に導入したときは、客がおすすめの肉を聞くと別の店を紹介し始めたので慌てて止めたことがある。
関連記事
- 有能な秘書か、大ぼら吹きか 「ChatGPT」をスプレッドシートで使えるアドオンを試してみた
ビジネスツールであるスプレッドシートからChatGPTが呼び出せると、景色はちょっと変わる。行列の見出しを入力するだけで、自動で無限に欲しい情報が手に入る。 - GoogleのChatGPT競合「Bard」のデモ回答に誤り──天文学者らが指摘
Googleが発表したChatGPT競合の会話型AIサービス「Bard」の発表時に披露したサンプル回答に誤りがあったと複数の専門家が指摘した。太陽系外惑星の画像をとらえたのはジェームズ・ウェッブ宇宙望遠鏡が初という部分だ。 - 日本を画像生成AIで再現する 「自分の見た景色」を学習したAIは強力な思い出再生装置に
AIで漫画を書こうとするとひとつ不便なことがある。StableDiffusionの元になっている学習データは「全世界」の画像を使っているので、日本人がイメージするような「郵便局」とはまったく異なるイメージになってしまう。そこで街のあちこちの景色を写真に撮った。これをAIに学習させて、独自の日本的な画像生成AIを作ろうというのだ。 - 会話で検索できる「新しいBing」、Microsoftがプレビュー公開 ChatGPT開発元の次世代モデル採用
MicrosoftはOpenAIの言語モデル採用の新モデル「Prometheus」採用のチャットbot付き「新しいBing」を発表した。英語版Bingで限定プレビューを試せる。同時に発表の「新しいEdge」には、AIを使って表示内容を要約したり新たなコンテンツ作成を支援する機能も搭載する。 - Google、OpenAIの「ChatGPT」競合「Bard」を限定公開
Googleは、「ChatGPT」と競合する“実験的な会話型AIサービス”の「Bard」の提供を開始する。まずは限定公開だが、「向こう数週間中により広く公開する」。また、Google検索にクエリにテキストで答える新AI機能を間もなく追加する。 - AIでどこまでできる? 絵心のないプログラマーが「ChatGPT」と「作画AI」でマンガを描いてみた
クリスタにAI作画機能搭載が見送られたと聞いて、なるほどなあと思いつつ、では絵が全く描けない筆者が、AIを使って漫画を書くことはできるのか、実際にやってみることにした。
Copyright © ITmedia, Inc. All Rights Reserved.