ITmedia NEWS > STUDIO >

YouTube、不適切な動画対策の成果を報告──機械学習によるフラグ精度向上

» 2018年04月24日 12時22分 公開
[佐藤由紀子ITmedia]

 米Google傘下のYouTubeは4月23日(現地時間)、不適切な動画の対策について説明した。昨年12月の説明の更新版だ。

 YouTubeでは昨年3月、人種差別などの不適切なコンテンツが広告収入を得ているとして多くの企業が広告を引き上げた。Googleは6月、こうした問題に対処するために機械学習による問題コンテンツ検出システムの強化を約束した。

 今回の発表は、2017年第4四半期(10〜12月)に削除した不適切な動画についてが中心。3カ月で約830万本の動画を削除した。その中の670万本は、ユーザーからの報告ではなく、同社が開発した機械学習システムが検出し、その後人間の担当者が確認して削除したものという。

 670万本の機械学習が検出した動画の中、76%は1度も再生されないうちに削除した。

 同社は不適切動画がアップロードされてから削除するまでに人の目に触れた回数が確実に改善しているとして、2017年第1四半期からの推移をグラフ化したものを紹介した。

 youtube 1

 また、Googleが定期的に公開している透明性レポートに、YouTubeのコミュニティガイドラインの違反措置に関する報告を追加した。

 youtube 2 透明性レポート

 透明性レポートでは、報告された問題の種類(性的なもの、スパム、ヘイトスピーチ、暴力的、など)別シェアや報告後の対処の例などを閲覧できる。

 YouTubeは同日、コミュニティガイドラインについての説明動画も公式YouTubeチャンネルで公開した。


Copyright © ITmedia, Inc. All Rights Reserved.