ITmedia NEWS > 社会とIT >
ITmedia AI+ AI活用のいまが分かる

“AIが人間を査定”は差別につながる? 米保険会社の炎上事例から考える「AIガバナンス」【新連載】事例で学ぶAIガバナンス(3/3 ページ)

» 2023年03月01日 11時47分 公開
[小林啓倫ITmedia]
前のページへ 1|2|3       

想像できなかったユーザーの不安

 いまやAIの偏見(バイアス)は有名な問題であり、AI導入の際には必ず検討されるテーマだ。立ち上げ当初からAIを業務に活用してきたレモネードが、偏見問題を一切無視してAIを開発していたとは考えにくく、先ほどの釈明ツイートにうそはないだろう。そもそも発端となった投稿でも、肌の色や性別などで判断するとは言っていない。にもかかわらず、なぜレモネードは炎上してしまったのだろうか。

 テクノロジーの適切な利用を訴えている団体「Fight for the Future」のケイトリン・シーリー・ジョージ氏は、この炎上事件に関して「保険金請求をAIが査定するという発想を、人々は好んでいないことを示している」とコメントしている。

ケイトリン・シーリー・ジョージ氏のコメントが掲載されている記事

 保険金をもらえるかどうかという判断は、場合によっては契約者のその後の人生を左右しかねない。例えば保険金が支払われなかったことで、もらえるはずのお金がもらえず適切な手術が受けられなかったら、後遺症が残るリスクがあるだろう。そんな重要な判断を、AIが勝手に(実際は人間が最終判断を下すというのがレモネード側の釈明だが)下すとしたら、それは倫理的に正しいことなのだろうか――というわけである。

 シュライバーCEOを筆頭に、レモネードは自社のAI活用を積極的にアピールしている。この炎上事件後も、レモネードの公式Twitterでは、自分たちのAIがいかに素晴らしいかを説明するツイートをたびたび投稿している。

 それは契約者や潜在的契約者に安心感を与え、ユーザーを拡大するという意図もあるだろうが、AIに対する過信もあるのではないだろうか。それが一般の人々がAIに対して抱く感情を読み違えることにつながり、炎上の発端となったツイートのような、端折った説明を許してしまったのかもしれない。

 AIに限った話ではないが、システムの企画者や開発者は、得てしてそのプラス面だけに注目してしまい、それがどのような不安感を一般の人々に与える可能性があるのかという点を考慮するのを忘れがちだ。

 特に今回のようなアピールをソーシャルメディアなどで行う場合には、ユーザーや世論の視点に立った考察を行う担当者、もしくはプロセスが必要になるだろう。近年ChatGPTのような、人間が書いたとしか思えない文章を生成するAIが登場していることを思えば、そうしたユーザー視点のPR文を書くことすらAIが担当するようになるのかもしれないが。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.