ITmedia NEWS > 科学・テクノロジー >
ITmedia AI+ AI活用のいまが分かる

「AIが人類を支配したら?」が現実味を帯びてきた件 加速する“AIアライメント”議論の現在地(2/4 ページ)

» 2023年09月27日 10時00分 公開
[井上輝一ITmedia]

 で、その次の分岐点として「できちゃうけどコントロールできる」というシナリオがあるんですけど、コントロールできるかって議論はもう10年くらい前から哲学者やその辺の周辺の人がずっとやってるんですけど、「確実な方法はない」というのが現状の結論なわけです。

 短期間ならできるかもしれないけどずっとは多分無理。とはいえ、当面悪い人が悪いように使わないように、国連みたいなところで管理しようみたいな話とかが出てくるんですが、それも協力しない国がいるとダメ。米中対立から派生するリスクも心配です。

 「オフセット戦略」(※)と米国が言っているんですが、第一次オフセット戦略が核戦略。第二次が精密誘導兵器で第三次がAI。でもAIの進化が第三次の枠にも入り切らなくなったので、Google元CEOのエリック・シュミットがチェアマンになって「オフセットX」なんて名前も付けている。

※米軍展開を妨害しようとする敵国の能力を相殺(オフセット)する構想のこと。

 オフセットXになると自律化は避けられない。AIを、単なるツール的なものを超えて自律的なものにしていくっていうのが、色んな意味でルビコン川になっている。

金井 自律かどうかってところが一番大事なんだよね。AGIで機能がすごい高まること自体はそこまで脅威ではないというか、悪意を持って使う人は脅威だけど、自律が本当の脅威。

山川 相手が自律のドローンをたくさん飛ばしてきているのにこっちは人間の操作で対抗するというのはありえないので、もう避けられない。そうするともう次に選べるのはあれなんですね。自律なんだけど良いAIになってくれるっていう方向しかないと僕は今のところ考えている。良いドラえもん的な。

自律的な超AIは良い倫理観を持つのか

山田 高度な自律性をAIに与えるっていうことは、ゆくゆくは親離れして、自分たちのコントロールから離れるっていうことを前提としてやらざるを得なくなる。「いずれ主役はAI側になるけれども、それまでは一生懸命育てるよ」っていうのが、高度な自律性を備えたAIを作ってそれを教育することだと思うんです。

 そういう、どうなっちゃうか分かんないものに自分たち託せないよ、っていうのが欧米的には強いんじゃないかなっていう気はしてるんですよね。

山川 自律的、生物的になれば、自分自身で何が本当に大事かみたいな価値とかを形成するんじゃないですかね。人間も元来の生物的にはほとんど自己保存の欲求が起点ですが、一応他者に優しくするとか、愛とか仁などの道徳も生まれてきているわけですから。超AIであれば超倫理みたいなものが生じて人間レベルにはすぐ追いつくのでは。

 だからそれを超えて、単に自分(AI)たちだけやたら数が多ければいいってもんじゃないよね、みたいな世界観になると、生物多様性じゃないですけども、自分たち機械生命体もいるけど、地球型生命体もちゃんと多様性ある方がいいよね、みたいな感じになる可能性はあると思う。

金井 賢くなって人間とアラインできるような倫理観を持つのは、結構可能性が低いんじゃないかと思うんですよね。

 それは例えば生物同士だったら、人間と犬とか多少アラインできるかもしれないけど、それはかなり進化の過程とかが共有されていて脳の仕組みも似ているから成り立っているのかもしれない。けど、彼らAIが社会性とかを持って進化してきてるわけじゃないから根本的に違う。他者に対してどう思うとか、そういうものが全然人間の想定通りになりようがなくて。

 そう思うとなかなかアラインできないんじゃないかな。人間同士でも全然アラインできないで殺し合ってしまうわけだから、それ以上にもっとできないっていうのが前提としてあるべきかなとは。

 ただ人間がAIに取って代わられてもいいよっていう考え方はあるかなと。

Copyright © ITmedia, Inc. All Rights Reserved.