連載
» 2017年12月21日 08時00分 公開

【増補】真説・人工知能に関する12の誤解(13):人工知能に人間を「裁く」ことはできるのか? (1/4)

人工知能に判断を任せられる領域が広がってきています。しかし、それが「信頼できる」ものかどうかは考え続けなければいけません。先日も、人工知能が“思い込み”で判断していると疑われる例が「司法」の現場で飛び出しました。

[松本健太郎,ITmedia]

 「AIトレーダー」に「AI面接官」、さらには「AI婚活」まで――。昨今、人工知能が意思決定のための判断材料を提供してくれる領域が急速に広がっています。2018年には、この傾向がさらに加速していくでしょう。

 「人工知能に仕事が奪われる」という悲観的な意見はあるものの、今のところは、そのほとんどは「仕事を手伝ってくれる」程度の能力しか発揮していないのが実情です。このまま人工知能と人間の“住み分け”が進めば、人間が人間にしかやれないことに集中できる環境が実現するかもしれません。

 確かに技術が進歩するにつれて、人工知能に任せられる領域は増えていくでしょう。それを期待する人は多いと思いますが、その人工知能が「判断を任せられるほど、信頼できるのか」という点については、多くの課題が残っています。

 もし、人工知能が受け入れがたい選択肢を提示したら、私たちは「それは違う」と言い返せるのでしょうか。

人工知能も“思い込み”で判断してしまう?

 「人工知能はデータで判断するから、人間と違ってバイアス(偏見)がなく、思い込みで判断しない」

 これが人間の思い込みかもしれない可能性を示唆した調査報道が「プロパブリカ(PROPUBLICA)」というメディアで公開され、大きな話題を呼びました。プロパブリカが取り上げたのは、米equivant(旧:Northpointe)が提供している「COMPAS」という再犯率予測プログラムです。

 被告人に137個の質問を出し、その答えと過去の犯罪データと照合して、被告が再び罪を犯す危険性を10段階で割り出します。今風に言えば「AI犯罪捜査官」でしょうか。米国では採用例が増えつつあるそうです。殺人事件の事前予知によって、発生率そのものをゼロにする映画「マイノリティ・リポート」の世界観に似ている部分がありますね。

photo 「AI犯罪捜査官」のようなシステムが、米国で採用されつつある(写真はイメージです)

 裁判官は「COMPAS」が提供するデータを参考にしつつ、被告人に量刑を下します。参考にする裁判官もいるようですし、逆に自分の良心に従って判決を下す裁判官もいるようです。

 プロパブリカは情報公開法などを使い、1万人超を超えるデータを取得して独自に検証を行いました。アルゴリズムの研究結果は「How We Analyzed the COMPAS Recidivism Algorithm」というタイトルで公開されているので、こちらも併せて一読いただければ幸いです。

 検証の結果、再犯率の精度は白人59%、黒人63%とほぼ同じ確率で正解していました。では、残りの約4割はどのように間違えたのか? その結果は、非常に示唆に富んだものでした。

       1|2|3|4 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ

マーケット解説

- PR -