YouTube、「次の動画」で陰謀論などの問題動画を勧めない改善に着手
YouTubeで動画を視聴すると「おすすめ動画」を表示する「次の動画」機能で、「コミュニティガイドライン」すれすれのコンテンツは表示しないテストが始まる。陰謀論や偽の難病治療法などは表示されなくなる見込み。
米Google傘下のYouTubeは1月25日(現地時間)、視聴中の動画の下(デスクトップの場合は横)に「おすすめ動画」を表示する「次の動画」機能で、「コミュニティガイドライン」すれすれの動画は表示しないようにすると発表した。まずは米国の一部のユーザーを対象に開始する。
「次の動画」は、動画を1つ再生すると、視聴中の動画に関連するとYouTubeのアルゴリズムが判断した「おすすめ動画」が表示される機能。初期設定では、視聴中の動画に続けて次々と自動再生されるようになっている。
この機能で、コミュニティガイドラインに違反してはいないが、問題のある“ボーダーラインコンテンツ”を表示しないようにする。YouTubeはボーダーラインコンテンツの例として以下を挙げた。
- 偽の“奇跡の難病治療法”
- 地球平面説のような陰謀論
- 9/11のような歴史的出来事についての露骨な虚偽の主張
この改善後も、こうしたボーダーラインコンテンツを削除するのではなく、検索すれば表示されるし、チャンネル登録者にも表示される。「この改善は、言論の自由のための場を維持することと、ユーザーへのわれわれの責任を果たすことの間のバランスをとれると思う」としている。
AIと人間が協力して機械学習でアルゴリズムを改善し、ボーダーラインコンテンツかどうかの判断の精度を上げていく。精度が上がれば対象ユーザーを拡大していく計画だ。
YouTubeの「次の動画」については、米BuzzFeedが24日、陰謀論動画ばかり並ぶと指摘した。同メディアによると、ログインしなくても、新しく作ったアカウントでログインしても、陰謀論動画を勧められたという。
関連記事
- YouTube、信頼できる動画提供のための「Top News」やWikipedia表示を開始
YouTubeが、特に速報動画についての信頼性を高めるために、「ホーム」タブにニュースコーナーを設置し、検索結果によってはWikipediaなどの用語解説を表示するようになる。 - YouTube、不適切な動画対策の成果を報告──機械学習によるフラグ精度向上
YouTubeによると、2017年第4四半期中に削除した不適切動画は830万本。そのうち670万本は同社が開発した機械学習システムが検出し、さらにその76%は人の目に触れる前に削除した。 - YouTube、銃器に関する動画投稿を禁止
YouTubeがポリシーに「銃器に関するコンテンツのポリシー」というページを追加し、銃器とそのアクセサリーの販売や製造法、使い方に関する動画を禁じた。 - YouTube、不適切動画チェック担当者を2018年に1万人以上に
不適切なコンテンツ表示が問題になっているYouTubeが、機械学習による問題コンテンツ検出システムの強化と問題を判断するレビュアー増員計画について説明した。 - Facebook、ユーザーがコンテンツを報告するための独立組織を2019年中に立ち上げへ
フェイクニュース拡散やロシア介入対策の遅れなどで批判されているFacebookのザッカーバーグCEOが、Facebook内の問題コンテンツを報告するためのFacebookとは独立した組織を立ち上げる計画を発表した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.