連載
» 2018年02月08日 08時00分 公開

【増補】真説・人工知能に関する12の誤解(16):「人工知能は信用できない!」 不信感を抱いてしまう理由とは (1/4)

いくつかの質問に答えるだけで退職リスクを判断される――。最近の人工知能は、人間の感情や心を評価するまでに進化しています。しかし、その一方でそれに違和感を覚える人も少なくはありません。この「気持ち悪さ」の理由はどこにあるのでしょうか。

[松本健太郎,ITmedia]

 いくつかの質問に答えるだけで、数カ月以内の退職リスクを判断されたり、自分に合っていると思われる企業を勧めたり――。最近の人工知能は、人間の感情や心を評価するまでに進化しています。実際に体験すると「どうして分かるのだろう」と不思議に感じることもあるでしょう。

 それと同時に「人工知能に感情まで読み取られたくない」と、不信感や嫌悪感を示す人がいるのも事実です。人の心は皆違うはずなのに、「Aさんと近い傾向だからB社は合うのではないか」「過去に退職したCさんに似ているから退職のリスクが高い」などと、他人の結果を基に、平均化(標準化)して評価することに、違和感があるというわけです。

 人工知能というえたいの知れない機械に「お前はAだ」と評価されたり、命令されたりしても納得できないという人は少なくないでしょう。「1人1人の違いをちゃんと見極めて、人間がその人に寄り添った理由を説明する方が信頼できる」と主張する人もいます。では、人工知能が人の心を判断することに対する違和感はどこからくるのでしょうか。

photo 人工知能の命令に納得できない、信用できないと感じる人は少なくないでしょう

人工知能が心を判断する「推測」のロジックを理解しているか?

 心を判断するとはいえ、人工知能は人の心を読み取っているわけではありません。この技術の根幹である機械学習や統計学は、簡単に言えば“分類”と“推測”を行っているにすぎません。機械学習にしても、統計学にしても、ある程度の誤差やランダム性を認めつつも「Aなのではないか」「Bではないとは言えない」と見なす手法だと言えます。

 例えば、回帰分析は2つ以上の変数の関係を比べて傾向を発見し、さらに将来の予測まで可能にします。あくまで“傾向”なので、多少の誤差はありますし、傾向から思い切り外れたデータも出てきます。それでも、無数のデータから規則性や法則性を浮かび上がらせる貴重な分析手法なのです。

photo 2017年2月に発表された人工知能学会の倫理指針

 私は、人が人工知能の判断に対して嫌悪感を覚えるという問題の本質は、手法(計算)の成り立ちや背景を無視して(あるいは理解しようとせず)「統計学を使って、Aと分かったからAです」と主張する人間の姿勢にあるように考えています。過程をすっ飛ばして、結論だけを提示されても「私はAじゃないのに、勝手に機械でAと評価されている」という声が起こるのは当然でしょう。

 今後、人工知能を活用したサービスは、このような反発を招かないための注意や工夫が必要になると思います。2017年2月に人工知能学会が発表した、人工知能の研究開発に対する倫理指針でも、この問題について触れられています。この指針は「倫理」という名前こそついているものの、実際に読むと「社会との不断の対話」が強調されていることが分かります。

       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

ピックアップコンテンツ

- PR -

注目のテーマ

マーケット解説

- PR -