AIはどこまで「判断」できるのか 安心なこと、不安なこと見逃せない問題点(4/5 ページ)

» 2018年12月06日 07時34分 公開
[印南一路ITmedia]

AIに倫理的な判断をさせようとしたらどうなるか

サバイバル決断力―「優柔不断」を乗り越える最強レッスン』(筆者・印南一路氏の新刊、NHK出版)

 一方、AIが不得意なのは、マニュアル化されていない作業や前例のない仕事のほか、クリエイティブな分野です。AIは過去のデータを分析することには長けていますが、まだシステム化されていない物事に対して新しい仮説を立てることは不得意です。さらに、人間の喜怒哀楽の感情を察したり、感じ取ったりすることはある程度まではできますが、客の要望に臨機応変に対応するサービス業や医療、介護など、人間の心の機微にかかわる分野は得意とはいえないでしょう。AIに芥川賞を取るような小説を書かせることは現時点ではまず不可能だと思います。

 さて、ここでもう1つ触れておきたいのは、AIがどこまで自分で判断できるのかという、判断の限界についてです。例えば、AIに倫理的な判断はできるでしょうか? 言うまでもなく、人間によるインプットなしにAIに倫理的な判断はできません。

 倫理学に「トロッコ問題」と呼ばれる有名な思考実験があります。基本形は次のような問題です。

 線路を走っているトロッコが制御不能になった。このままでは前方で作業中の5人がトロッコに轢(ひ)かれてしまう……。このときあなたは、線路の分岐器の近くにいた。あなたが分岐器のレバーを引き、トロッコの進路を切り替えれば5人は助かる。ところが、別路線にも1人作業員がいるため、代わりにその人が轢かれてしまう……。この場合、あなたはどのような選択をすればよいか?

 こういう倫理学上のジレンマが起こる深刻な問題を、AIはプログラミングなしに自律的に判断できないので、当然のことながら人間が判断しないといけません。

 問題は、誰の判断を入れるかです。(民主主義的な)人間社会ですら合意できないのですから、特定の人間の判断を採用するわけにはいきません。

 アイザック・アシモフの小説を下敷きにしているとされる、ウィル・スミス主演の映画『アイ,ロボット』(2004年、監督:アレックス・プロヤス)では、アンドロイドは単純に生存確率を基準に誰を助けるかを判断して主人公を助け、12歳の少女を見殺しにしました。その判断の良し悪しが問われることになります。

Copyright © ITmedia, Inc. All Rights Reserved.