ただこれは論理的にはおかしくて、というのも、いままで僕たちはソクラテスは男だと思ってきたわけです。だからその発見は、本当は、「ソクラテスと今まで言われていた人間」は実は存在せず、全く新しい哲学者が発見されたというふうに理解すべきなんですよ。ところが人間はソクラテスという言葉の定義を変えちゃうんですよね。
言葉遊びのように聞こえるかもしれないけど、これはとても大事なことで、「実は○○だった」っていう日常用語の表現は僕たちの頭の柔軟性をすごく表していて、それはAという定義から始めてここまで結論が来たのに、あるとき都合が悪くなったからAの定義を変えちゃいましょうってことができる。
これが僕が言う訂正可能性というもので、しかも人間は、訂正された後は自分が訂正したことにも気が付いていない、最初からそうだったと思い込んでしまう。
このことをもう少し展開すると、人間のコミュニケーションを考える場合、どれだけこっちがルールを説明しても勘違いするやつっているわけですよね。でもその勘違いは勘違いとはいえない、なぜならば人間はルールそのものをどんどん遡行的に書き換えていくから、ということが言えるんです。
この条件が根幹にある以上、僕たちの社会は決して完全な設計はできない。いくらクレームの可能性を潰したように見えたとしても、予想もしないところからルールの変更がやってくるかもしれない。
ちょっと端折ったので分かりにくいと思うけど、僕の本の中では以上のような議論の上で、社会はクレーム対応のバッファーを絶対に作らなきゃいけないんだけど、AI民主主義みたいな発想の中にはそれを軽視する考え方もあって、それはダメなんじゃないのといった主張を展開しています。
山田 それで僕思っているのが、実はAIって結構人文的な思考回路を持ってると思っているんですよ。今はまだかもしれないけど、将来的には訂正可能性みたいなものを考えることが、むしろAIだからこそできるようになるのではと。
従来のAIって記号論システムみたいなもので、これとこれを合わせるとカチッとこうなるみたいなプログラム。それはあまりうまくいかなかったわけですけど、今のAIって人間の直感みたいな部分があって、突飛な質問が来ても、正しいかどうかはともかく一応返答はできますよね。
そう考えたときに、数学者みたいな理系の頭ではなくて、文系的な感じのことをAIがし始めていると感じています。そうすると、それが発達してくるとクレーム対応みたいなこともできるようになるんじゃないでしょうか。
東 そこは完全に同意します。僕はむしろAIにそれを期待しているんですよ。理系的な考え方からすると、文系ってぼんやりしていてだから政治もうまくいっていない、もっとエビデンスと論理だけで政治もきっちり運営できるんじゃないか、っていう理想があったと思うんです。特にITでそれが強くなった。
でも、今はChatGPTが出てきて、自ら不合理の闇を引き寄せている。だからこれから人文的な思考の重要性が再注目されるんじゃないかと思ってます。
山田 じゃあなんていうか、僕は東さんが結構AI民主主義に否定的なのだと思っていたんですけど、実は僕ともすごく発想は近いんですかね。
東 AIの遺電子だとMICHIっていう超AIがあるじゃないですか。僕としては、あれは実現しないかなと思っていて、むしろありそうなのは、MICHIがいないけど、「ヒューマノイドみたいなもの」はたくさんいて、それぞれいろんな意見を言っていて、トラブルばかりみたいな世界。
クレーム対応をChatGPTとかがやってくれて軽減される部分もあるけど、同時にトラブルも起こすと思うんですよね。だから意外と全体的には変わらないかなと。
そういう意味ではあまり変わらないビジョンだと思いますよ。
山田 AIが最適化するっていうのは違うかもしれないけど、AIがエージェントとして、訂正可能性を持った存在として入っていくことで世の中が良い・面白い方に進んでほしいなって個人的には思っています。
そのためにはやはり人文的な発想があってほしいので、東さんにもそっち方向の働きかけを深めてもらえるといいなって。
東 頑張ります。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR