ITmedia NEWS > AI+ >
ニュース
» 2018年08月21日 08時00分 公開

「AIが犯罪を予測する世界」が危険なワケ(4/5 ページ)

[松本健太郎,ITmedia]

 データを基に、特定の個人が罪を犯す可能性を予測できるのでしょうか。例えば機械学習を用いれば、A・B・Cという行動をして、DをしていないからEという結果になるという予測を立てることは簡単です。

 しかし、Eに「犯罪に手を染める(人に危害を加える)」という0(NO)か1(YES)かの結果を求めたシステムを構築した途端、一気に難易度は上がります。

 分析自体の難易度ではありません。取得するデータの合法性や、結果を踏まえた判断の妥当性の問題です。

 例えばこのような機械学習に当てはめた結果、暴力団員が人に危害を加える可能性が70%だったとします。その理由だけで、行動を監視するべきでしょうか?

 データサイエンスの世界には、第一種過誤(偽陽性)と第二種過誤(偽陰性)という言葉があります。第一種過誤とは偽りの正解であり、要は「一般市民を冤罪で逮捕してしまうこと」を意味しています。 第二種過誤とは正解の見落としであり、要は「真犯人を取り逃がすこと」を意味しています。

AI 画像はイメージ

 統計的には、Eが1(YES)の可能性は99%でも、第一種過誤の可能性が30%という結果が出る場合もあります。その場合は、どのように対応するのでしょうか?

 刑事訴訟法は「疑わしきは罰せず」を原則としており、第一種過誤は起きてはならないと考えています。人に危害を加える可能性が70%だろうが99%だろうが、第一種過誤が考えられる限り、AIがそうだと言ったからという理由だけで行動していいのでしょうか。

 データサイエンスによる予測なんて、百発百中ではありません。必ず外れます。問題は、犯罪の予測を扱うとして、外れたのかどうか確認しようが無いのです。人が傷つかなければ正解か不正解か分からない。そんなシステム、怖くて運用できません。

システムに無理解な権力者

 完璧なシステムなんて存在しないので、エラーを考慮した運用が必要です。当たり前の話なのですが、なぜか日本の場合は「◯◯だから大丈夫」「◯◯があれば何とかなるだろう」「海外だってやっている」と問題が単純化されて語られているような気がします。

Copyright © ITmedia, Inc. All Rights Reserved.