ニュース
Facebookが報告対応のガイドライン公表、社内外の連携で苦情処理
ユーザーから寄せられた報告は24時間態勢で処理に当たり、ポリシーに違反していると判断した場合は問題コンテンツを削除する。アカウントを停止したり、捜査当局に通報したりすることもあるという。
米Facebookは6月19日、ユーザーから寄せられた問題コンテンツなどの報告について、社内でどう対応しているかを説明したガイドラインを公表した。
同社はポリシーの徹底を促すため、Webサイトの各所に報告用のリンクを設けてユーザーが不正を通報できるようにしている。寄せられた報告は世界各地を結んで24時間態勢で処理に当たり、対応言語も24言語強をカバーしているという。
報告は内容に応じて「安全」「いじめと嫌がらせ」「不正コンテンツ」などの各担当チームに割り振られ、そのコンテンツがポリシーや利用規約に違反していないかどうかを審査。違反していると判断した場合はコンテンツを削除し、投稿者に警告を出す。場合によってはユーザーが特定のコンテンツを共有できないようにしたり、特定の機能を使えないようにしたり、アカウントを停止したり、必要に応じて捜査当局に通報することもある。
これとは別に、Facebook側の判断が誤っていた場合に備えてユーザーの不服申し立てに対応するチームもあるという。
こうした社内での対応に加えて、Safety Advisory Board、National CyberSecurity Allianceといった外部の専門機関とも連携。さらに各国の自殺予防団体と協力し、悩みを抱えている人に援助を提供しているという。
関連記事
- Facebook、利用規約とデータポリシー改定の是非を問うユーザー投票スタート
- Google、Facebook、Twitterらが悪質広告対策で共闘 Ads Integrity Allianceに参加
- Facebook、「ログイン承認」などモバイルでのセキュリティ機能を強化
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.