Facebookの問題コンテンツ対策マニュアルをGuardianがリーク
殺人動画やリベンジポルノの表示が問題になっているFacebookで、そうしたコンテンツの対策担当者向けの膨大なマニュアルを入手したとしてGuardianが一部を公開した。
英Guardianは5月21日(現地時間)、米Facebookの問題のあるコンテンツの削除を判断する「モデレーター」のための社内マニュアルを入手したとして、その内容の一部を公開した。
同紙が入手したのは、暴力、ヘイトスピーチ、テロ、ポルノ、人種差別、自傷などのコンテンツへの対処方法を説明する100件以上のトレーニングマニュアル、スプレッドシート、フローチャートという。
間もなくMAUが20億人に達するFacebookでは様々なコンテンツが投稿されており、中には殺人を録画したものやリベンジポルノなども含まれる。
Facebookではユーザーや人工知能による報告に基いてモデレーターがコンテンツを審査し、削除する、非表示にする、放置するなどの判断を行っている。
現状では、報道写真を児童ポルノとして削除してしまったり、殺人動画が数時間表示されてしまうなどの問題が起きている。
Facebookのマーク・ザッカーバーグCEOは今月、こうした問題の対策強化のため、現在4500人であるモデレーターに3000人を追加すると発表した。
Guardianが公開したマニュアルでは、例えば「誰かがトランプ大統領を撃つ」と書くのはNGだが「誰かがあなたを殺せばいいのに」はOKだったり、自傷行為を肯定するような投稿はだめだが、自傷行為のライブ動画は削除しないといった、グレイで判断が難しい基準が記されている。自傷行為のライブ動画を削除しないのは、そうしたライブ動画を阻止することで「自殺しようとするような苦しんでいる人を検閲したり罰したりしたくない」からという。この方針は、専門家のアドバイスに基いて決めたものと文書には書かれているという。
マニュアルでは、自傷行為のライブ動画1つとっても、「(動画の放置が)当事者を助ける機会につながらないようであれば動画を削除する方が安全だ」など、判断が難しい説明になっている。
Guardianによると、モデレーターはわずか2週間の訓練期間の後、専門家としてコンテンツのレビューに従事し、これらのマニュアルに基いてコンテンツの扱いを判断する。
FacebookのGlobal Policy Management責任者であるモニカ・ベッカート氏はGuardianに対し、「われわれはコミュニティを安全に保つ責任がある考えている。安全を維持することは、われわれの責任だ。サービスを安全に保つために引き続き投資していくと同時に、われわれのポリシーに違反するコンテンツを報告する権限を広げていきたいと考えている」と語った。
関連記事
- Facebook、問題コンテンツ対策強化で3000人増員へ
虚偽ニュース拡散や殺人動画配信が問題となっているFacebookが、報告のあったコンテンツをレビューするチームを向う1年間で3000人増員すると発表した。 - Facebook増収増益、ユーザー20億人目前
Facebookの1〜3月期の決算は売上高、純利益ともにアナリスト予測を上回る2桁台の増収増益だった。月間アクティブユーザー数は17%増の19億3600万人と20億人目前だ。 - Facebookで高齢者を射殺するライブ動画配信
Facebookのユーザーが男性を射殺する様子を動画で配信し、Facebookが削除するまで数時間にわたって視聴された。投稿した男は指名手配中だ。 - FacebookやGoogle、テロ関連など問題コンテンツの自動ブロックツールを採用か──Reuters報道
FacebookやGoogle傘下のYouTubeが、テロリストのプロパガンダ動画などを自動的に検出し、ブロックするツールを導入しつつあると、Reutersが情報筋の話として報じた。 - Facebook、「ナパーム弾の少女」を“ヌード”だとして削除(抗議を受け復活)
Facebookが、大手新聞社の記者が自身のページに投稿した歴史的反戦写真「ナパーム弾の少女」を「コミュニティ規定」に反するとして削除し、物議を醸した後復活させた。新聞社の編集長はザッカーバーグCEO宛の公開書簡で「ジャーナリストの権利と義務は、Facebookのアルゴリズムによって傷つけられるべきではない」と抗議した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.