AIはどこまで「判断」できるのか 安心なこと、不安なこと見逃せない問題点(2/5 ページ)

» 2018年12月06日 07時34分 公開
[印南一路ITmedia]

見逃せないAIの問題点とは?

 しかし、現在のAIには3つ問題点があると思います。

1つは、大量の、しかもできれば正解付きのデータが必要なことです。金融やクレジットカード情報などビッグデータのある分野はAIの得意領域ですが、データが乏しい領域ではあまり機能しません。 

 例えば、特定の場面で人間にどういう感情が起こるかというデータは、感情を数学的にきちんと定義することができないので、存在しません。ウソ発見機のように血圧や心拍数の変化をとらえる程度では、100を超えるといわれる人間の複雑な感情をとらえられません。

 2つ目は、AIは基本的に内挿(ないそう)的で、与えられたデータセットの内部での推論は得意ですが、データの範囲外の外挿(がいそう)になると、推論が正しいかどうかを恒常的に検証する必要が出てきます。

 株価情報を大量にAIに入れて特定の銘柄の株価を予想させるとします。ここで得られる推論はかなりの精度で信用できるはずですが、リーマンショックのような突然の株価暴落のように、データそのものに構造的な変化が生じた場合、AI予測の信頼度は落ちるでしょう。株価のように推測の精度の検証が比較的容易ならばAIの有用性はゆるがないのですが、ゆるやかに構造変化していった場合、AIを使う人間は、AIの判断を信頼できるでしょうか。

AIが普及すれば、私たちの働き方はどうなるのか

 3つ目は、ブラックボックス化です。人間の研究者がつくる統計モデルは、一見複雑に見えても、人間が解釈できるようかなり単純化しています。しかし、AIにはこのような制限がないために、極めて多数の変数からなり、グラフ化はおろか、イメージ化もできない理解不可能なモデルをつくる可能性があります。その場合、人間がAIの判断をそのまま信じてよいのかといった問題が出てきます。

 しかも、あまりに構造が複雑になると、AIの推測が内挿的なのか外挿的なのかさえも分からなくなります。というわけで、最近はAIの説明可能性や解釈可能性が問題になってきていますが、その研究は始まったばかりです。

Copyright © ITmedia, Inc. All Rights Reserved.