米Google傘下のYouTubeのスーザン・ウォジスキCEOは12月5日(現地時間)、不適切な動画対策の成果と今後の取り組みについて発表した。
YouTubeでは3月、人種差別やイスラム過激派に賛同する内容などの不適切な動画が広告収入を得ているとして批判された。また、未成年が出演する動画への不適切なコメントや、「YouTube Kids」に子ども向けではない動画が表示される問題も浮上している。
Googleは6月、こうした問題に対処するために機械学習による問題コンテンツ検出システムの強化を約束した。
ウォジスキ氏によると、6月以来、機械学習システムは従来の5倍以上人間のレビュアーをサポートしたという。機械学習のサポートを得て、15万本以上の動画を暴力的過激主義だとして削除した。現在では、暴力的過激主義だという報告の98%は機械学習によるもので、そうして報告され、実際に問題だと人間のレビュアーが判断した動画の70%は投稿から8時間以内に削除されている。
機械学習システムの強化を継続しつつ、最終的な判断をする人間のレビュアーも増やす。2018年中にレビュアーチームを1万人以上にする計画だ。ちなみに米Facebookは5月、年内に人間のレビュアーを7500人にすると発表した。
ウォジスキ氏はクリエイター向けの公式別のブログで、「誤って不適切ではない動画から広告を排除しないよう、われわれがコンテンツレビューの際、もっと正確であるべきだという皆さんの声は届いている」とし、システムを改善していくと語った。
YouTube、不適切なコンテンツ対策を強化 「YouTube Kids」ガイドライン公開も
Google、YouTubeなどでのテロ対策強化を説明
YouTube、LGBTQ動画への不適切フラグは誤動作だったとして謝罪し改善を約束
YouTubeからの大手メディア広告引き上げを受け、Googleが自動システム改善を約束
Facebook、問題コンテンツ対策強化で3000人増員へCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR