ITmedia NEWS > セキュリティ >
ニュース
» 2012年06月20日 07時30分 UPDATE

Facebookが報告対応のガイドライン公表、社内外の連携で苦情処理

ユーザーから寄せられた報告は24時間態勢で処理に当たり、ポリシーに違反していると判断した場合は問題コンテンツを削除する。アカウントを停止したり、捜査当局に通報したりすることもあるという。

[鈴木聖子,ITmedia]

 米Facebookは6月19日、ユーザーから寄せられた問題コンテンツなどの報告について、社内でどう対応しているかを説明したガイドラインを公表した。

 同社はポリシーの徹底を促すため、Webサイトの各所に報告用のリンクを設けてユーザーが不正を通報できるようにしている。寄せられた報告は世界各地を結んで24時間態勢で処理に当たり、対応言語も24言語強をカバーしているという。

 報告は内容に応じて「安全」「いじめと嫌がらせ」「不正コンテンツ」などの各担当チームに割り振られ、そのコンテンツがポリシーや利用規約に違反していないかどうかを審査。違反していると判断した場合はコンテンツを削除し、投稿者に警告を出す。場合によってはユーザーが特定のコンテンツを共有できないようにしたり、特定の機能を使えないようにしたり、アカウントを停止したり、必要に応じて捜査当局に通報することもある。

 これとは別に、Facebook側の判断が誤っていた場合に備えてユーザーの不服申し立てに対応するチームもあるという。

 こうした社内での対応に加えて、Safety Advisory Board、National CyberSecurity Allianceといった外部の専門機関とも連携。さらに各国の自殺予防団体と協力し、悩みを抱えている人に援助を提供しているという。

Copyright© 2017 ITmedia, Inc. All Rights Reserved.