いまやAIの偏見(バイアス)は有名な問題であり、AI導入の際には必ず検討されるテーマだ。立ち上げ当初からAIを業務に活用してきたレモネードが、偏見問題を一切無視してAIを開発していたとは考えにくく、先ほどの釈明ツイートにうそはないだろう。そもそも発端となった投稿でも、肌の色や性別などで判断するとは言っていない。にもかかわらず、なぜレモネードは炎上してしまったのだろうか。
テクノロジーの適切な利用を訴えている団体「Fight for the Future」のケイトリン・シーリー・ジョージ氏は、この炎上事件に関して「保険金請求をAIが査定するという発想を、人々は好んでいないことを示している」とコメントしている。
保険金をもらえるかどうかという判断は、場合によっては契約者のその後の人生を左右しかねない。例えば保険金が支払われなかったことで、もらえるはずのお金がもらえず適切な手術が受けられなかったら、後遺症が残るリスクがあるだろう。そんな重要な判断を、AIが勝手に(実際は人間が最終判断を下すというのがレモネード側の釈明だが)下すとしたら、それは倫理的に正しいことなのだろうか――というわけである。
シュライバーCEOを筆頭に、レモネードは自社のAI活用を積極的にアピールしている。この炎上事件後も、レモネードの公式Twitterでは、自分たちのAIがいかに素晴らしいかを説明するツイートをたびたび投稿している。
それは契約者や潜在的契約者に安心感を与え、ユーザーを拡大するという意図もあるだろうが、AIに対する過信もあるのではないだろうか。それが一般の人々がAIに対して抱く感情を読み違えることにつながり、炎上の発端となったツイートのような、端折った説明を許してしまったのかもしれない。
AIに限った話ではないが、システムの企画者や開発者は、得てしてそのプラス面だけに注目してしまい、それがどのような不安感を一般の人々に与える可能性があるのかという点を考慮するのを忘れがちだ。
特に今回のようなアピールをソーシャルメディアなどで行う場合には、ユーザーや世論の視点に立った考察を行う担当者、もしくはプロセスが必要になるだろう。近年ChatGPTのような、人間が書いたとしか思えない文章を生成するAIが登場していることを思えば、そうしたユーザー視点のPR文を書くことすらAIが担当するようになるのかもしれないが。
ChatGPTは弁護士の代わりになるか? 「カタツムリ混入ビール事件」の判例で検証 香港チームが発表
ChatGPTは舎弟気質? 「高圧的な命令でマルウェア作成など悪用可能」との指摘 犯罪目的の利用に懸念
AIは食糧危機を救えるか? 農作物収穫のメリットと、サイバー攻撃などによる新たなリスク
フランスで増える“脱税プール” 国税局が導入した「マルサAI」活躍の裏側
AIで「パニック買い」を乗り越える 繰り返される“買いだめの歴史”に終止符を Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR