米Google傘下のYouTubeは11月22日(現地時間)、サービス上で不適切なコンテンツ、特に家族向けのようで実際はそうではないコンテンツが増えていることを受け、こうしたコンテンツを排除する5つの取り組みを実施していると発表した。
「コミュニティガイドライン」の適用範囲を拡大し、投稿者が意図していなくても子どもを危険にさらす可能性がある未成年が出演する動画と、子どもに親しまれているキャラクターが登場するが内容が成人向けである動画を削除対象にした。その結果、過去1週間で50以上のチャンネルを停止し、ガイドラインに違反する数千の動画を削除した。
こうしたコンテンツを迅速に発見するために機械学習技術と自動化ツールを導入した。発見したコンテンツは人間がレビューする。
YouTubeでは、例えば「Peppa Pig」などの子ども向け人気アニメを不適切な内容に編集・投稿した動画が、子ども向けサービス「YouTube Kids」のフィルターを通過してしまうことが問題になっている。
6月の広告ガイドラインアップデートで予告した通り、子どもに親しまれているキャラクターが暴力や攻撃など、不適切な行為をするコンテンツから広告を引き上げている。6月以降、300万件の動画から広告を引き上げた。
YouTubeではこれまでも、未成年が出演する動画への不適切(性的なものや攻撃的なもの)なコメントを自動機能と人間による報告に基づいて削除してきたが、今後は問題のあるコンテンツが投稿された動画についてはコメントすべてを無効にする。
日本でも5月から提供している「YouTube Kids」向けのコンテンツ制作者向けガイドラインを向う数週間中に公開する。
多様化する不適切なコンテンツの取扱方法を改善するために、パートナー専門家を増やし、「Trusted Flagger」を倍増する。Trusted Flaggerの定義の説明はないが、不適切なコンテンツを報告するユーザーのことのようだ。YouTubeには、不適切なコンテンツを正しく報告するとポイントを獲得できる「YouTubeコントリビューター」プログラムがある。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR