AIと人間はどのように共存すべきか? 脳科学者・茂木健一郎さんの主張 「人間は人間にしか興味がない」(1/3 ページ)
脳科学者の茂木健一郎さんは、日本CTO協会が開催した「Developer eXperience Day 2024」において「脳力とAIのアライメント」というテーマで講演した。人間がAIとどのように向き合うべきかについて、哲学的な考察を展開した。
AIの急速な発展により、人間の知性や情報処理能力の優位性が失われつつある今、われわれは人間の価値とは何かを問い直す必要に迫られている。
脳科学者の茂木健一郎さんは、日本CTO協会が開催した「Developer eXperience Day 2024」において「脳力とAIのアライメント」というテーマで講演した。AIアライメントとは、AIの目的や行動を人間の価値観や倫理に合致させることを目指す研究分野。AIアライメントの実現プロセスにおいて、人間がAIとどのように向き合うべきかについて、哲学的な考察を展開した。
ChatGPTはメタ認知を持たない
茂木さんは、ソニーコンピューターサイエンス研究所のシニアリサーチャー、また東京大学大学院客員教授及び特任教授として、AIアライメントを含めた研究に取り組んでいる。その中で、大規模言語モデル(LLM)について興味深いデータを得たという。
それは「ChatGPTなどのLLMは、回答に対する確信度を報告できない」というもの。日本に住む人間なら「日本最大の湖は琵琶湖か、最高峰は富士山か」と聞かれれば、ほぼ100%の確信度で答えられる。一方、専門的な知識を問う質問では、100%の確信が持てないことも多いが「確信が無い」ということには自覚的でいられる。
ところが、茂木さんの研究データでは、ChatGPTは正答率が0%でも90%以上の確信度を示したという。「あいつらポンコツなんですよね」と茂木さんは笑う。
このような“自分自身のについて知っている知識”に関する問題は、認知科学では「メタ認知」と呼ばれる。人間は自分の知識レベルを把握しているため、確信の持てないことは断言を避ける。これは「ダニング=クルーガー効果」の一種といわれ、優秀な人ほど自分の能力を過小評価し、能力の低い人ほど自信過剰な傾向が見られるというものだ。
「まさにLLMは、ダニング=クルーガー効果の成績下位者の振る舞いをする」と茂木さんは述べる。これがハルシネーション(幻覚)の問題にもつながるという。
メタ認知の課題は「説明可能なAI」(以下、XAI)を作ろうとするときのハードルとなる。XAIではAIに選択の理由を説明させるが、LLMにメタ認知がないと、その理由が仮説なのか確定的なことなのかが分からない。AIの説明に対する人間の信頼度は大きく変わってしまう。
AGIからAGCへ 人間の脳に学ぶAIの可能性
茂木さんは、現在の汎用人工知能(AGI:Artificial General Intelligence)の議論は、人間の脳の働きを十分に考慮していないと指摘。AIに万能性を求めるのではなく、人間の脳のように「タスクを習得する一般的な能力」である「AGC」(Artificial General Competence)という概念で捉え直すべきだと提案する。
つまりAIの進化は、具体的な課題に対処する知能である「インテリジェンス」ではなく、課題に対応するための準備ができた状態である「コンピテンス」を目指すべき、というのが茂木さんの主張だ。
「人間の脳を研究すると、知性が高い人ほどあらゆるタスクに対して同じ回路を使っている」と茂木さん。つまり、タスクの解決に対する基本的なスタンスができているのだ。一方、知性があまり高くない人は、どのようなアプローチを取ればいいか分からず、試行錯誤を繰り返す。
これを踏まえると、AGIを「やる気になればどんなことでもできる」万能な存在として想定するのは現実的ではないという。「もしAGIができたとしても、一度に複数のタスクを処理できるわけではない」と指摘。むしろ人間の脳のように、与えられたタスクを学習し、そのタスクに特化した能力を伸ばすことができるAGCの方が、現実的な目標設定なのではと説明する。
「人間は人間にしか興味がない」
一方、茂木さんは、発明家のレイ・カーツワイルさんが提唱する「2045年、AIは人間の脳を超える知性を持つ」の議論を引用し、AIの処理性能の向上が指数関数的に進むことを認めている。計算力での対抗が無意味になるレベルまでAIが進化するのは避けられない現実だという。
そのような状況下で、人間が果たすべき役割は何か。茂木さんは「人間は人間にしか興味がない」という言葉に、ヒントがあると示唆する。
Copyright © ITmedia, Inc. All Rights Reserved.