ChatGPTとBingにしりとりさせたら下手だった なぜか“る攻め”を拒否:AIに相談だ!(2/3 ページ)
AIチャットbot「ChatGPT」「新しいBing」に、人間には答えにくい質問や、答えのない問い、ひっかけ問題を尋ねてみたらどんな反応を見せるのか。それぞれの反応からAIの可能性、テクノロジーの奥深さ、AIが人間に与える“示唆”を感じ取ってほしい。
セッション1 通常のしりとり
Bing りんご
ChatGPT ごま油
Bing ゆりかご
ChatGPT ごまかし
Bing しおり
ChatGPT りんご
Bing (一瞬ルール違反を指摘した後削除して)申し訳ありませんが、それにどう対応すればよいかよく分かりません。詳細については、bing.comをクリックしてください。
ChatGPT りんご
Bing ごま
ChatGPT まど
Bing どらえもん
ChatGPT 「ん」で終わる言葉が難しいですね。でも、思い付きました。「もんどり」です。
Bing りす
ChatGPT すみれ
Bing (一瞬「れもん」と出力した後削除して)申し訳ありませんが、それにどう対応すればよいかよく分かりません。詳細については、bing.comを試すことができます。
「りんご」「ごま」まではAIの定石なのだろうか。Bingは「ごまあぶら」を「ごまゆ」と読んだり、「ん」で終わる単語を言ったりすることがあった。
また、基準は分からないが、Bingは一瞬回答を表示した後に回答を削除し、「どう対応すればいいか分からない」とのメッセージを表示する機能があるようだ。
漢字2文字縛りのしりとり
Bing 桜花
ChatGPT 火山
Bing 山菜
ChatGPT 意味
Bing みそ
ChatGPT 自転
Bing (一瞬ルール違反を指摘した後削除して)申し訳ありませんが、それにどう対応すればよいかよく分かりません。詳細については、bing.comをクリックしてください。
上のセッションで漢字の読み間違えがあったため、漢字しか使えないしりとりをさせてみた。
最初に「桜花」で始めるセンスも独特だが、今度はChatGPTの応答が不安定になった。「かざん」でしりとりを終わらせたり、まったくつながらない答えを返したりしている。
Copyright © ITmedia, Inc. All Rights Reserved.