「そのロボットは生き物じゃないの!! よくできてるオモチャ!! もっともらしく返事してるだけで意思も感情もないんだから!!」
「そんなことない… そんなこと…」
2023年7月から放映しているテレビアニメ「AIの遺電子」第3話の一幕。「ポッポ」という名のくまのぬいぐるみロボットをめぐって母親と子どもが言い争う場面だ。
作中では人と同等の性能を持つ「ヒューマノイド」には人権が認められているものの、そうではないロボットに対しては「道具」として一線が引かれている。アニメではポッポの他に“レンタル彼氏ロボット”ジョーも描かれるが、ジョーもあくまで企業の商品だ。
ヒトではなく道具であるのに、子どもは「そんなことない」と言い、ジョーを借りた女性はジョーとの別れに涙する。ロボットや産業AIによる“感情があるかのようなふるまい”は、人の心に入り込み、行動を変えさせることがある。
しかし、これは人間を意図的に誘導できてしまうというリスクもはらんでいるのではないか。ChatGPTという賢いAIも現実に出てきたいま、「SFの話だから」とばかにできなくなってきているのではないだろうか。
今回の記事は、こうした感情に訴えるふるまいをするロボットやAIの可能性について。日本SF作家クラブ会長でもあり、人とエージェントの関係性を研究する慶應義塾大学准教授の大澤博隆さんと、AIの遺電子原作者・山田胡瓜さんの対談でお届けする。
(聞き手・執筆:井上輝一)
山田 ポッポのようなロボットに対して、コミュニケーションが成立していると思って人間が語りかけたり、あるいはロボットからの働きかけに反応しちゃったりする現象が、ChatGPTをはじめとする対話型AIによっていま起きていると思うんですよね。
AGI(汎用人工知能)でなくても人間はそこに心を見出したりしてしまって影響を受ける。これってポジティブな使い方もできるし、悪用もできて、思いもよらぬデメリットみたいなものを生み出す可能性もあるんじゃないでしょうか?
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR