ITmedia NEWS > AI+ >
ITmedia AI+ AI活用のいまが分かる

テクノロジーが受容されることの意味(2/3 ページ)

» 2019年06月28日 07時00分 公開
[西田宗千佳ITmedia]

正しく公正なAIを誰が「担保」するのか

 AIやロボットについて、擬人化しすぎるのは問題だと思っている、いまのAIやロボットは、人間とは大きく違う存在だ。一方で、だからこそ、「なんのために作るのか」「なにが目的なのか」が重要なのではないか。そこでの方向性が間違っていると、集めるデータソースや開発の方向に間違いが生まれやすい。

 その後に訪れたMicrosoft本社では、やはりAIについての話題が多く出た。もはや、道具としてのAIは基本的な存在であり、それをどう使うか、そのためのソフトウェアをどう用意するか、という時代であることを強く思い知らされた。

 一方で、結局答えが得られなかった問題もある。

 それはAIと倫理、公平性の問題だ。Microsoftはこの点に初期から警鐘を鳴らしており、姿勢と責任について情報公開も進めている。

photo MicrosoftのAIの基本原則

 偏った情報ソースに基づくAIは公平なものにならず、人が意図しない差別や課題を生み出す可能性が高い。人間が「思わずやってしまう」不公平な情報ソースの収集により、間違った学習が進んでしまうわけだ。この点はその通りで、多くの専門家も課題があると指摘している。

 Microsoftもそうした問題を指摘してきた。だが、「では、どう公平さや正しさを評価するのか」という筆者の問いに、明確な答えはなかった。当然ではある。人間同士ですら、そんなことに答えは出せないのだから。まったく間違いのないソースとロジックをAIに与えるのも困難だ。

 だとするなら、AIの間違いをちゃんと指摘できるようになるしかないし、そもそも、最初の開発の方向性が歪まないよう、努力するしかない。

 これは、Amazonが「ビジネスとしての目的」からAIを語ったことと、根は同じではないか。

 ビジネスとしての目的が後ろ向きならば、AIの価値もまた後ろ向きになりやすい。「顧客に対してなにを提供できるのか」という視点に絞ることは、人とAIの関係として好ましいものに思える。必ずしも倫理的な正しさによって担保されたものではないが、人間の判断も似たようなものだ。

 何が便利で何が快適で、何が倫理にかなうのか。

 筆者にも明確な答えはないが、「正しくあろうとすること」と「顧客の目的」の両方を目指すことは、決して悪い選択肢でないように思う。

Copyright © ITmedia, Inc. All Rights Reserved.