大澤 まず、単純に賢いAIを作るというよりも「エージェントを使って結果的に人や人どうしの関係をうまく回そう」という話はあります。よく挙げられるのは岡田美智男さん(豊橋技術科学大学教授)が提唱する「弱いロボット」。
弱いロボットはなんでもこなせるわけではなくて、できないことを人にさらけ出すことで人との関係を構築したりするわけです。人とエージェントの関係をいかに設計するかが大事だと僕も思っています。
関係性こそが重要だという研究は複数あります。例えばロボットに教えることで自分自身も学んだり(筑波大学・田中文英研)、周りに勉強するエージェントを置くことで勉強しやすい環境を作ったり(関西大学・米澤朋子研)とか。ああいう間接的な影響というか“他者”を作ることでわれわれがどう良くなるかを考えるときに、それが賢いAIである必要はありません。
賢いAIも重要だけどそれは一部であって、それより私達との関係性をどう設計していくかが大事です。
山田 ChatGPTもそういう使われ方をしている感じがしますよね。自分でも導き出せる答えなんだけど、ChatGPTによってそれが引き出されてくるみたいな。
うめさん(漫画家。「東京トイボックス」シリーズなど)がChatGPTに聞いてネームやプロットを作っていたんですけど、僕の印象では、あれは普段うめさんが頭の中でやっていることをChatGPTに聞くことで整理していたんじゃないかなと。
ChatGPTが思いもよらぬ返しをすることで変わっていく相互作用はあるかもしれないけど、そこまで意外性のある返事はしていなかった感じは受けたんですよね。
大澤 壁打ち役としては優秀なんだと思います。そういうエージェントの使い方って、賢くはないんだけど人から引き出すような役割を演じるというか、例えば最初にあえてつまらないアイデアを言うことで他のアイデアを活性化させるような。私たちを補完する他者をこれから設計できる時代になるこれから設計できるようになるっていうのが一つのポイントなんだろうと思います。
山田 設計できるってことは誘導できるという側面もありますよね。そういうリスクについての研究や議論って実際にあったりするんですか?
大澤 徐々に出てきています。私が数年前にやったのだと、IEEE(電気・電子系で世界最大の専門家組織)で行った「倫理的にアラインされたデザイン」のディスカッションの一部で「ある程度以上親密なエージェントを作ることは規制するべき」という議論がありました。
山田 そういう結論になりましたか?
大澤 いえ、そうはなっていません。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR