YouTube、不適切なコンテンツ対策を強化 「YouTube Kids」ガイドライン公開も
YouTubeが、一見家族向けで実は子どもに見せられないような動画や、未成年が危険にさらされるような動画の増加を受け、対策強化を発表した。ガイドラインの適用範囲を広げ、既に50以上のチャンネルを停止した。
米Google傘下のYouTubeは11月22日(現地時間)、サービス上で不適切なコンテンツ、特に家族向けのようで実際はそうではないコンテンツが増えていることを受け、こうしたコンテンツを排除する5つの取り組みを実施していると発表した。
1. コミュニティガイドライン適用の厳格化、機械学習による早期発見
「コミュニティガイドライン」の適用範囲を拡大し、投稿者が意図していなくても子どもを危険にさらす可能性がある未成年が出演する動画と、子どもに親しまれているキャラクターが登場するが内容が成人向けである動画を削除対象にした。その結果、過去1週間で50以上のチャンネルを停止し、ガイドラインに違反する数千の動画を削除した。
こうしたコンテンツを迅速に発見するために機械学習技術と自動化ツールを導入した。発見したコンテンツは人間がレビューする。
YouTubeでは、例えば「Peppa Pig」などの子ども向け人気アニメを不適切な内容に編集・投稿した動画が、子ども向けサービス「YouTube Kids」のフィルターを通過してしまうことが問題になっている。
2. 家族向けの不適切な動画での広告引き上げ
6月の広告ガイドラインアップデートで予告した通り、子どもに親しまれているキャラクターが暴力や攻撃など、不適切な行為をするコンテンツから広告を引き上げている。6月以降、300万件の動画から広告を引き上げた。
3. 未成年出演動画への不適切なコメントのブロック
YouTubeではこれまでも、未成年が出演する動画への不適切(性的なものや攻撃的なもの)なコメントを自動機能と人間による報告に基づいて削除してきたが、今後は問題のあるコンテンツが投稿された動画についてはコメントすべてを無効にする。
4. 「YouTube Kids」向けコンテンツのガイドライン公開へ
日本でも5月から提供している「YouTube Kids」向けのコンテンツ制作者向けガイドラインを向う数週間中に公開する。
5. コンテンツを判断するパートナー専門家と「Trusted Flagger」の増員
多様化する不適切なコンテンツの取扱方法を改善するために、パートナー専門家を増やし、「Trusted Flagger」を倍増する。Trusted Flaggerの定義の説明はないが、不適切なコンテンツを報告するユーザーのことのようだ。YouTubeには、不適切なコンテンツを正しく報告するとポイントを獲得できる「YouTubeコントリビューター」プログラムがある。
関連記事
- 「YouTube Kids」、年齢に合わせたレベル変更やパスコードでの保護が可能に
日本でも5月から提供しているペアレンタル機能付きYouTubeアプリ「YouTube Kids」で、子供ごとにプロフィールを作成し、年齢に合わせたUIを使わせることが可能になった。子供は兄弟に邪魔されないようパスコードを使うこともできる。 - 子ども向け視聴アプリ「YouTube Kids」きょうから提供
子ども向けに再設計したインタフェース、コンテンツのカテゴリー表示、保護者向け機能を備える。 - YouTube、「制限付きモード」の不具合改善について報告
YouTubeが、3月にLGBTQ動画を自動的に「制限付きモード」で非表示にして問題になった件で、技術的な改善で1200万本を表示できるようにし、フィードバック用フォームを用意したと発表した。 - Google、不適切なコンテンツへの広告表示対策について説明
YouTubeからの英国政府やトヨタなど、大手広告主の引き上げを招いた不適切コンテンツへの広告表示について、Googleがポリシー厳格化や広告主向けの新ツールなどの対策を説明した。 - YouTube、性的ビデオの規制を強化
YouTubeは、18歳未満が閲覧できない成人向けビデオの判断基準を厳しくする。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.