AIやロボットについて、擬人化しすぎるのは問題だと思っている、いまのAIやロボットは、人間とは大きく違う存在だ。一方で、だからこそ、「なんのために作るのか」「なにが目的なのか」が重要なのではないか。そこでの方向性が間違っていると、集めるデータソースや開発の方向に間違いが生まれやすい。
その後に訪れたMicrosoft本社では、やはりAIについての話題が多く出た。もはや、道具としてのAIは基本的な存在であり、それをどう使うか、そのためのソフトウェアをどう用意するか、という時代であることを強く思い知らされた。
一方で、結局答えが得られなかった問題もある。
それはAIと倫理、公平性の問題だ。Microsoftはこの点に初期から警鐘を鳴らしており、姿勢と責任について情報公開も進めている。
偏った情報ソースに基づくAIは公平なものにならず、人が意図しない差別や課題を生み出す可能性が高い。人間が「思わずやってしまう」不公平な情報ソースの収集により、間違った学習が進んでしまうわけだ。この点はその通りで、多くの専門家も課題があると指摘している。
Microsoftもそうした問題を指摘してきた。だが、「では、どう公平さや正しさを評価するのか」という筆者の問いに、明確な答えはなかった。当然ではある。人間同士ですら、そんなことに答えは出せないのだから。まったく間違いのないソースとロジックをAIに与えるのも困難だ。
だとするなら、AIの間違いをちゃんと指摘できるようになるしかないし、そもそも、最初の開発の方向性が歪まないよう、努力するしかない。
これは、Amazonが「ビジネスとしての目的」からAIを語ったことと、根は同じではないか。
ビジネスとしての目的が後ろ向きならば、AIの価値もまた後ろ向きになりやすい。「顧客に対してなにを提供できるのか」という視点に絞ることは、人とAIの関係として好ましいものに思える。必ずしも倫理的な正しさによって担保されたものではないが、人間の判断も似たようなものだ。
何が便利で何が快適で、何が倫理にかなうのか。
筆者にも明確な答えはないが、「正しくあろうとすること」と「顧客の目的」の両方を目指すことは、決して悪い選択肢でないように思う。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR