コラム
» 2020年09月04日 07時00分 公開

失敗例に学ぶ:AIしくじり物語 なぜ、AIは「偏見」を抱くのか (3/3)

[小林啓倫,ITmedia]
前のページへ 1|2|3       

 これは“Bias at Warp Speed: How AI may Contribute to the Disparities Gap in the Time of COVID-19”(ワープスピードのバイアス:COVID-19の時代における格差にAIがどう寄与するか)というタイトルの論文で、スイス連邦工科大学ローザンヌ校の研究者らがまとめたものだ。

 いまや医療の世界でも、病気の診断や治療方針の検討、病床の割り当てといった判断を効率化するために、AIを活用することが進められている。例えばAccenture(アクセンチュア)のポール・ドーアティCTOは、著書『HUMAN+MACHINE』の中で、ある企業が病院のベッドに患者を割り当てるシステムを開発した例を紹介している。

 一般的に、効率的な運営が行われていても、病院におけるベッドの稼働率は 70〜80%程度だそうだ。しかしこのシステムを使うと、AIがどの患者をどのベッドに割り当てるか、あるいは退院させて問題ないかを判断し、医師や看護師に提案する。もちろん彼らはその判断を無視しても構わないのだが、AIの分析を活用することで、ベッド稼働率を90%以上にすることが可能になる。

 しかし前述の論文は、こうしたAIによる判断に警鐘を鳴らしている。COVID-19のパンデミックにより、世界中で医療リソースを効率的に使うというニーズが、短期間で急速に高まった。それを支援しようと、焦ってAIを開発する結果、バイアスが含まれたモデルが導入されかねないというのである。

photo 写真はイメージです

 同論文を執筆した研究者らは、実際に人工呼吸器や集中治療室といった特に貴重なリソースの割り当てを最適化するAIなど、COVID-19に関して各種の予測や判断を行うシステムを検証した。すると学習に使用されたデータサンプルが適切でなかったり、完成したモデルに問題が含まれていたりといった例が確認されたそうだ。AIを短期間で開発しようとするあまり、開発者は既存の医療体制の中で蓄積されてきたデータを活用しようとする。しかしアマゾンの例でも見られたように、過去の現実が目指すべき最適な状態とは限らない。

 例えば欧米では、人種による差別や出生地が影響する貧富の格差などによって、特定の社会集団の人々が適切な医療を受けられていない現状がある。それをAIに参照させてしまえば、AIは同じような判断を下し、格差を助長してしまうだろう。

 こうした問題意識は、既に幅広い人々に共有されており、是正に向けた動きも生まれている。例えば、米国の連邦上院議員である民主党のコリー・ブッカー氏とロン・ワイデン氏は、19年にトランプ政権と主要な保険会社に対し、医療データの分析を行うアルゴリズムに含まれる人種差別に対処するよう要請している。この問題は、アマゾンのように十分な技術的知識経験、人材を保有している企業ですら対応が難しいものである以上、複数の企業や公的機関が協力して取り組むものになっていくだろう。

 既にAIアプリケーションを導入している企業でも、AIに全ての判断を任せてしまっているケースはほとんどない。大半の場合は、AIが導き出した結果を判断材料として、人間が最終的に判断をしている。そのため「AIが間違った判断を行った場合のリスクは抑制されている」と説明されることもあるのだが、アマゾンのケースのように、AIが選んだものしか人間がチェックしないのであれば「選ばなかったもの」の側に重大なミスがあった場合に対処できなくなる。それが人の命に関わる事態につながる可能性まである以上、AIの判断は十分にチェックされなければならない。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.

アクセスランキング
  • 本日
  • 週間

    Digital Business Days

    - PR -