米Twitterは10月1日(現地時間)、同社が2018年1月から提供している添付画像の自動トリミングが人種差別的だという批判について、調査の状況と今後の対策を説明した。
自動トリミング機能は、ユーザーがツイートに画像を添付すると、Twitterの機械学習(ML)システムが画像で最も重要な部分を判断し、自動的にトリミングするというもの。視覚的に目立つ部分を把握する研究データを学習させたアルゴリズムを使っている。
このトリミングについて、起業家のトニー・アルシエリ氏が9月20日、白人のミッチ・マコーネル上院議員と黒人のバラク・オバマ前大統領の写真を縦に並べた画像を添付して投稿したところ、マコーネル氏を中心にトリミングされたとして、例を添付して問題提起のツイートを投稿した。
Twitterは翌日、社内テストではシステムに人種的バイアスの証拠は見つからなかったが、さらに分析するとツイートした。
今回のブログでは、社内で実施したバイアス確認のテスト方法について説明し、これまでの分析では人種や性別による偏見は示されなかったが、写真の自動トリミングが害を及ぼす可能性があることは認識していると語った。
今後の対策としては、MLベースの画像トリミングへの依存を減らし、トリミングについての多様なテストを開始する。
さらに、デザインの原則である「WYSIWYG」(What You See Is What You Get)に従うため、仕様を改善していくという。つまり、添付画像の投稿後の状態を、投稿者が事前に確認できるようにする。
同社のパラグ・アグラワルCTO(最高技術責任者)は「MLシステムのバイアスは業界全体の問題であり、われわれも改善に取り組んでいる。われわれは責任を認識しており、システムがどう機能するかを誰もが理解できるよう努力したいと考える。偏見が完全にないシステムは存在しないが、最小限に抑え、最新情報を共有していく」と語った。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR