ITmedia NEWS > STUDIO >
ニュース
» 2017年12月06日 09時15分 公開

YouTube、不適切動画チェック担当者を2018年に1万人以上に

不適切なコンテンツ表示が問題になっているYouTubeが、機械学習による問題コンテンツ検出システムの強化と問題を判断するレビュアー増員計画について説明した。

[佐藤由紀子,ITmedia]

 米Google傘下のYouTubeのスーザン・ウォジスキCEOは12月5日(現地時間)、不適切な動画対策の成果と今後の取り組みについて発表した。

 youtube 1 YouTubeのスーザン・ウォジスキCEO

 YouTubeでは3月、人種差別やイスラム過激派に賛同する内容などの不適切な動画が広告収入を得ているとして批判された。また、未成年が出演する動画への不適切なコメントや、「YouTube Kids」に子ども向けではない動画が表示される問題も浮上している

 Googleは6月、こうした問題に対処するために機械学習による問題コンテンツ検出システムの強化を約束した。

 ウォジスキ氏によると、6月以来、機械学習システムは従来の5倍以上人間のレビュアーをサポートしたという。機械学習のサポートを得て、15万本以上の動画を暴力的過激主義だとして削除した。現在では、暴力的過激主義だという報告の98%は機械学習によるもので、そうして報告され、実際に問題だと人間のレビュアーが判断した動画の70%は投稿から8時間以内に削除されている。

 youtube 2 ユーザーも問題のある動画を報告できる

 機械学習システムの強化を継続しつつ、最終的な判断をする人間のレビュアーも増やす。2018年中にレビュアーチームを1万人以上にする計画だ。ちなみに米Facebookは5月、年内に人間のレビュアーを7500人にすると発表した。

 ウォジスキ氏はクリエイター向けの公式別のブログで、「誤って不適切ではない動画から広告を排除しないよう、われわれがコンテンツレビューの際、もっと正確であるべきだという皆さんの声は届いている」とし、システムを改善していくと語った。

Copyright© 2017 ITmedia, Inc. All Rights Reserved.