ニュース
» 2017年11月24日 07時58分 公開

YouTube、不適切なコンテンツ対策を強化 「YouTube Kids」ガイドライン公開も

YouTubeが、一見家族向けで実は子どもに見せられないような動画や、未成年が危険にさらされるような動画の増加を受け、対策強化を発表した。ガイドラインの適用範囲を広げ、既に50以上のチャンネルを停止した。

[佐藤由紀子,ITmedia]

 米Google傘下のYouTubeは11月22日(現地時間)、サービス上で不適切なコンテンツ、特に家族向けのようで実際はそうではないコンテンツが増えていることを受け、こうしたコンテンツを排除する5つの取り組みを実施していると発表した。

 youtube 1

1. コミュニティガイドライン適用の厳格化、機械学習による早期発見

 「コミュニティガイドライン」の適用範囲を拡大し、投稿者が意図していなくても子どもを危険にさらす可能性がある未成年が出演する動画と、子どもに親しまれているキャラクターが登場するが内容が成人向けである動画を削除対象にした。その結果、過去1週間で50以上のチャンネルを停止し、ガイドラインに違反する数千の動画を削除した。

 こうしたコンテンツを迅速に発見するために機械学習技術と自動化ツールを導入した。発見したコンテンツは人間がレビューする。

 YouTubeでは、例えば「Peppa Pig」などの子ども向け人気アニメを不適切な内容に編集・投稿した動画が、子ども向けサービス「YouTube Kids」のフィルターを通過してしまうことが問題になっている

 youtube 2 「Peppa Pig」

2. 家族向けの不適切な動画での広告引き上げ

 6月の広告ガイドラインアップデートで予告した通り、子どもに親しまれているキャラクターが暴力や攻撃など、不適切な行為をするコンテンツから広告を引き上げている。6月以降、300万件の動画から広告を引き上げた。

3. 未成年出演動画への不適切なコメントのブロック

 YouTubeではこれまでも、未成年が出演する動画への不適切(性的なものや攻撃的なもの)なコメントを自動機能と人間による報告に基づいて削除してきたが、今後は問題のあるコンテンツが投稿された動画についてはコメントすべてを無効にする。

4. 「YouTube Kids」向けコンテンツのガイドライン公開へ

 日本でも5月から提供している「YouTube Kids」向けのコンテンツ制作者向けガイドラインを向う数週間中に公開する。

5. コンテンツを判断するパートナー専門家と「Trusted Flagger」の増員

 多様化する不適切なコンテンツの取扱方法を改善するために、パートナー専門家を増やし、「Trusted Flagger」を倍増する。Trusted Flaggerの定義の説明はないが、不適切なコンテンツを報告するユーザーのことのようだ。YouTubeには、不適切なコンテンツを正しく報告するとポイントを獲得できる「YouTubeコントリビューター」プログラムがある。

Copyright© 2017 ITmedia, Inc. All Rights Reserved.

ピックアップコンテンツ

- PR -

注目のテーマ

マーケット解説

- PR -