しかし、現在のAIには3つ問題点があると思います。
1つは、大量の、しかもできれば正解付きのデータが必要なことです。金融やクレジットカード情報などビッグデータのある分野はAIの得意領域ですが、データが乏しい領域ではあまり機能しません。
例えば、特定の場面で人間にどういう感情が起こるかというデータは、感情を数学的にきちんと定義することができないので、存在しません。ウソ発見機のように血圧や心拍数の変化をとらえる程度では、100を超えるといわれる人間の複雑な感情をとらえられません。
2つ目は、AIは基本的に内挿(ないそう)的で、与えられたデータセットの内部での推論は得意ですが、データの範囲外の外挿(がいそう)になると、推論が正しいかどうかを恒常的に検証する必要が出てきます。
株価情報を大量にAIに入れて特定の銘柄の株価を予想させるとします。ここで得られる推論はかなりの精度で信用できるはずですが、リーマンショックのような突然の株価暴落のように、データそのものに構造的な変化が生じた場合、AI予測の信頼度は落ちるでしょう。株価のように推測の精度の検証が比較的容易ならばAIの有用性はゆるがないのですが、ゆるやかに構造変化していった場合、AIを使う人間は、AIの判断を信頼できるでしょうか。
3つ目は、ブラックボックス化です。人間の研究者がつくる統計モデルは、一見複雑に見えても、人間が解釈できるようかなり単純化しています。しかし、AIにはこのような制限がないために、極めて多数の変数からなり、グラフ化はおろか、イメージ化もできない理解不可能なモデルをつくる可能性があります。その場合、人間がAIの判断をそのまま信じてよいのかといった問題が出てきます。
しかも、あまりに構造が複雑になると、AIの推測が内挿的なのか外挿的なのかさえも分からなくなります。というわけで、最近はAIの説明可能性や解釈可能性が問題になってきていますが、その研究は始まったばかりです。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PRアクセスランキング