Googleの文章提案AI、「性別ある代名詞」が消えた訳:AI時代のバイアス(2/2 ページ)
メール作成時に文章の一部を入力すると、続く文章を自動作成して提案する、Googleの文章提案機能は、ジェンダー属性のある代名詞は提案しない。
<新たな方針>
グーグルがジェンダーに関して安全策をとる方針を決定した裏には、同社の予測テクノロジーを巡って注目を集めるトラブルがいくつか発生したという事情がある。
2015年、グーグル写真関連サービスの画像認識機能が黒人のカップルをゴリラと間違って認識したことを受けて、同社は謝罪した。2016年には、グーグルは検索エンジンの自動補完機能を修正した。ユーザーがユダヤ人に関する情報を検索したときに「邪悪なユダヤ人」という候補を提案したためだ。
グーグルは自社の予測テクノロジーから卑猥な言葉や人種的な中傷だけでなく、競合他社や悲劇的な事件への言及も排除している。
ジェンダー属性のある代名詞禁止というグーグルの新方針は、同社のスマート・リプライの回答候補リストにも影響を及ぼした。
このサービスは、ユーザーが「よさそうだね」などの短いフレーズでショートメッセージやメールに即座に返答することを可能にする。
グーグルは社内のAI倫理チームが開発したテストを利用して新たなバイアスを発見している。ランバート氏によれば、スパムや迷惑行為対策チームは、ハッカーやジャーナリストのように考えることによって、「美味しい」失敗を見つけようとしているという。
米国以外で働く社員は、それぞれ地元の文化的問題を探っている。スマート・コンポーズはいずれスペイン語、ポルトガル語、イタリア語、フランス語という4つの言語にも対応する予定だからだ。
「人間による監視がかなり必要だ」とエンジニアリングを指揮するラグハバン氏は言う。「それぞれの言語において、何が不適切かという範囲は異なってくるから」
<広範囲に及ぶ課題>
「ジェンダー属性のある代名詞」という問題に取り組むテクノロジー企業はグーグルだけではない。
トムソンロイターからの出資を受けているニューヨークのスタートアップ企業アゴロは、AIでビジネス文書のサマリーを作成している。
同社のテクノロジーでは、文書によっては、どの代名詞がどの名詞を受けているのかを正確に判断できない。そこで、サマリーではユーザーが文脈を判断しやすくなるよう、複数の文書を引用している、と最高技術責任者を務めるMohamed AlTantawy氏は語る。
細部が分からなくなるよりは引用が長くなる方がマシだと同氏は言う。「ほんのわずかな間違いでも人々の信頼を失う。求められているのは100%の正確さだ」
それでも不完全さは残る。グーグルと米アップル
性別を示さない「ある人は兵士だ」と言うトルコ語をグーグル翻訳にかけると、英語では「彼は兵士だ」と変換される。中国のアリババ
アマゾン・ドット・コム
AI専門家は各企業に対し、免責事項を表示しつつ複数の訳例を示すよう、呼びかけている。
マイクロソフト傘下のリンクトインが導入してから1年がたつメッセージ予測ツール「スマート・リプライ」は、潜在的な失敗を防ぐため、ジェンダー属性のある代名詞を避けているという。アリババとアマゾンにもコメントを求めたが、回答は得られなかった。
複雑なシステムにおける対策として最も多く用いられているのは、依然として「スマート・コンポーズ」などのような警告や制限だ、と統計をベースにニュース記事を生成する米オートメイテッド・インサイトの統合エンジニア、ジョン・ヘーゲル氏は語る。
「最終目標は、魔法のように書くべきことを察知する、完全に機械による生成システムだ」とヘゲル氏。「非常に多くの進歩があったとはいえ、われわれはまだその境地に達していない」
(翻訳:エァクレーレン)
Copyright © Thomson Reuters