これは反論も結構あって、というか僕も反論しましたが、少なくとも規制という形でやるべきではなくて、リスクの説明をしてあとはユーザーに任せるのがいいと。なぜなら、かなり強い形の表現規制とも捉えられかねないからですね。
ただ、すごくリスクを感じている人たちはいました。普通のビデオゲームと比べても、親密なエージェントの場合は従ってしまう率が高いのではとか、子どもに接したらどうするのかとか結構あって、そのリスクは真面目に向き合う必要があります。
山田 僕の漫画だと規制されているんですよね。「産業AIは過度に人間と親密な関係を持って、依存関係になるようなリスクを与えてはならない」みたいな世の中の考え方があって。
ものすごい知的で素敵なロボットなんだけど、次アップデートするときはちょっと素っ気ないロボットにせざるを得ない、みたいな話もあったりして、僕自身は描いているときに、そういうリスクが今後議題として上がるだろうというのは思っていたんですよね。
山田 それを感じた原体験は、中国Baiduが作っていた日本語IMEで、それをアンインストールするときにかわいいメイドさんみたいな萌えキャラが出てきて「本当に消すんですか?」みたいなことを言ったんですよ。これはずるいぞと思って。
そこで思いとどまらせたいというのは分かるんですけど、これがもっと巧妙になったら人間の消費行動が結構変わってしまうんじゃないか、というのを思いました。
大澤 それは反論しづらいところも正直あって、確かに影響を受ける方は受けるので、やばいAIの使われ方は当然あり得るし、そのリスクをちゃんとお前は説明しているのかと言われると、そんなできていないかもしれないですねという話には当時なりました。
山田 アルコール依存とかの依存症ってあるじゃないですか。僕的にはあの手の問題に近いと思っています。
普通に付き合っている分には、ほとんどの人には問題ないかもしれないけど、そこを乗り越えちゃった一部の人には外部からの介入やサポートがないとひどいことになる、みたいなフェーズは多分どこかである。
その先に行くと、SF的に言っちゃうと「誰も逆らえないAI」みたいな事態になる可能性もありはしそうです。
ただ、やっぱりそういうものを今の段階から一律に良くないと言ってしまうのも、さっきおっしゃったように表現の幅を狭めるし、いろんな可能性の芽を積んでしまう可能性はあるなと。
大澤 研究者たちも議論はしていますが、議論ってやはり補助線が必要というか、単純に決められる問題ばかりじゃないですよね。
SF小説でもおっしゃるような話が増えていますが、今までと解像度が違うというか、実際に触れるようになってあらためて、単なるディストピアの道具としてのAIだけでなく、普通に社会に入れなきゃいけない前提なんだけどやっぱりこういう問題は起きるよね、っていうのを書かなきゃって意識は強くなっています。
悩んでいる人もいるし、見落とされがちな繊細さもある、ということをキャラクターのドラマで見せられると研究者でもそうだなとなるので、漫画などのエンタメで描かれる良さってあると思います。
山田 ありがとうございます。リスクの周知も必要だし、でもうまく使える可能性もあるよっていう、両方をみんなに伝えていくことが大事なんだろうなと思ってます。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR