ITmedia NEWS > STUDIO >

YouTube、不適切なコンテンツ対策を強化 「YouTube Kids」ガイドライン公開も

» 2017年11月24日 07時58分 公開
[佐藤由紀子ITmedia]

 米Google傘下のYouTubeは11月22日(現地時間)、サービス上で不適切なコンテンツ、特に家族向けのようで実際はそうではないコンテンツが増えていることを受け、こうしたコンテンツを排除する5つの取り組みを実施していると発表した。

 youtube 1

1. コミュニティガイドライン適用の厳格化、機械学習による早期発見

 「コミュニティガイドライン」の適用範囲を拡大し、投稿者が意図していなくても子どもを危険にさらす可能性がある未成年が出演する動画と、子どもに親しまれているキャラクターが登場するが内容が成人向けである動画を削除対象にした。その結果、過去1週間で50以上のチャンネルを停止し、ガイドラインに違反する数千の動画を削除した。

 こうしたコンテンツを迅速に発見するために機械学習技術と自動化ツールを導入した。発見したコンテンツは人間がレビューする。

 YouTubeでは、例えば「Peppa Pig」などの子ども向け人気アニメを不適切な内容に編集・投稿した動画が、子ども向けサービス「YouTube Kids」のフィルターを通過してしまうことが問題になっている

 youtube 2 「Peppa Pig」

2. 家族向けの不適切な動画での広告引き上げ

 6月の広告ガイドラインアップデートで予告した通り、子どもに親しまれているキャラクターが暴力や攻撃など、不適切な行為をするコンテンツから広告を引き上げている。6月以降、300万件の動画から広告を引き上げた。

3. 未成年出演動画への不適切なコメントのブロック

 YouTubeではこれまでも、未成年が出演する動画への不適切(性的なものや攻撃的なもの)なコメントを自動機能と人間による報告に基づいて削除してきたが、今後は問題のあるコンテンツが投稿された動画についてはコメントすべてを無効にする。

4. 「YouTube Kids」向けコンテンツのガイドライン公開へ

 日本でも5月から提供している「YouTube Kids」向けのコンテンツ制作者向けガイドラインを向う数週間中に公開する。

5. コンテンツを判断するパートナー専門家と「Trusted Flagger」の増員

 多様化する不適切なコンテンツの取扱方法を改善するために、パートナー専門家を増やし、「Trusted Flagger」を倍増する。Trusted Flaggerの定義の説明はないが、不適切なコンテンツを報告するユーザーのことのようだ。YouTubeには、不適切なコンテンツを正しく報告するとポイントを獲得できる「YouTubeコントリビューター」プログラムがある。

Copyright © ITmedia, Inc. All Rights Reserved.