ITmedia NEWS > 社会とIT >
ITmedia AI+ AI活用のいまが分かる

「AIのリスク」を理解してる? 世界でいま何が起こっているのかよくわかる人工知能の基礎知識(4/5 ページ)

» 2019年07月04日 07時00分 公開
[小林啓倫ITmedia]

 最近は企業の採用活動にAIを活用することも増えてきた。そのAIが判断を誤って不当に採用されなかった人が現れたら、誰がその責任を持つのか。

 実際に米Amazon.comが開発した人材採用AIは、技術系の社員(大半は男性)の履歴書を教師データとした結果、女性を不当に低く評価するバイアスを持つようになった。Amazonはこの結果に失望し、AIをあきらめて開発チームも解散したとロイターで報じられた。しかし、彼らのように自主的に誤りを正してくれる企業ばかりとは限らない。

 残念ながら、この点についてはマスメディアや研究機関などの第三者による調査分析を期待するしかないのが現状だ。

 採用の分野では非営利団体のUpturnが、いま販売されている主要な人材採用アルゴリズムを分析し、「初期設定のままではバイアスがかかってしまう恐れがあることが分かった」と発表した。ちなみにUpturnは同じ報告書の中で、既存の法律ではこの問題を取り締まることができないと説明している。

 怖いのは、そうした偏見に企業が気づけない一因として、「AIのいうことを闇雲に信じてしまう」傾向があると指摘されている点だ。今後さらにAIアプリケーションが普及し、「AIは正しい判断をしてくれる」という意識が定着してしまうと、AIによる害の認識はいっそう困難になってしまう。そのためにも、次で紹介するような、AIアプリケーションから害を生み出す仕組みを取り除く対応が欠かせない。

復旧:害を出す仕組みを取り除く

 最後は復旧だ。自然災害の場合は文字通り、元の社会や日常生活を取り戻すことを指すが、ここでは「AIが抱える問題を分析して必要な修正をすること」と捉えてみたい。

 復旧の大きなハードルは、本連載の第5回で解説した「ブラックボックス問題」である。

「説明できるAI」

 機械学習を使うと、「なぜAIがその判断をしたか」を誰も説明できない可能性がある。動物が写っている大量の画像データを教師データとして与え、写真に写る動物を判別させるAIを完成させたとしよう。そのAIが特定の画像を認識して「ネコが写っている」と判断した場合、画像のどこを見てネコだと判断したのか、人間には分からない。これがAIのブラックボックス問題だ。

 これではAIの判断によって何らかの問題が発生しても、それをどう解決すべきか、あるいは解決が可能なのかを人間が判断することは難しい。

 減災の話に近いが、何らかの目に見える害が発生した際に、AIがそれにどこまで関わっているのかを切り分けるのも困難を伴う。AIを使う人間側の設定ミスで何らかの問題が起こることもあるはずだ。そのため、多くの研究者が「説明責任を果たすAI」の実現に取り組んでいる。

 判断の根拠を人間にも理解できるような数式や文章によって表現する研究が行われる一方で、それを実装するにはAIを開発する企業の負担が大きいという問題もある。せっかくAIに見つけさせた重要な知見を、誰もが分かる形で外部に公開することに抵抗を示す企業も多いはずだ。

 そこで技術的な研究と並行して、「説明責任を果たすAI」のあり方について、国レベルでルールを整備しようという動きが生まれている。この点についても、詳しくは次回の記事で紹介する。

Copyright © ITmedia, Inc. All Rights Reserved.