Google、YouTubeなどでのテロ対策強化を説明

Facebookに続き、Googleもコンテンツサービスでのテロ行為対策について説明した。人工知能と人間による問題コンテンツ検出システムの強化やグレーな動画への広告非表示など、4つの取り組みを紹介した。

» 2017年06月19日 11時18分 公開
[佐藤由紀子ITmedia]

 米Googleは6月18日(現地時間)、傘下のYouTubeを含む同社サービスでのテロ行為対策に関する新たな4つの取り組みを説明した。同社法務顧問のケント・ウォーカー氏が米Financial Timesに寄稿した論説を、公式ブログでも公開した。

 terror 1

 特にYouTubeはテロリストがリクルート目的のプロパガンダ動画を投稿することがあり、2008年ごろから問題になっている。2016年6月にはAI採用の自動ツールを採用したと報じられた。今年3月にはテロ関連を含む不適切な動画に広告が表示されたとして大手広告主が多数YouTubeから広告を引き上げた。

 今回発表された取り組みは以下の4つだ。

機械学習による問題コンテンツ検出システムの強化

 同社は既に機械学習による動画解析モデルを使っており、過去半年に削除したテロ関連コンテンツの50%以上はこのシステムで検出したものという。

 今後はより多くのエンジニアリングリソースを新しい“コンテンツ分類”学習の強化に投じるとしている。

人力検出の強化

 AIの強化と並行して、人間による問題検出のプログラムも強化する。一般ユーザーではなく、第三者機関の専門家に「Trusted Flagger」として問題コンテンツの報告で協力してもらっており、その協力先に新たに50のNGOと63の団体を追加する。

 一般ユーザーからの報告は誤認も多いが、Trusted Flaggerの報告は90%以上が正確という。

問題かどうかがグレーな至上主義動画などの扱い

 明らかにGoogleのポリシーに違反しているわけではないが、問題のある動画の扱いを従来より厳しくする。例えば宗教的に扇動したり、至上主義的な主張をする動画などが対象になる。

 こうした動画には警告が表示され、広告が表示されず、お勧めリストにも表示されない。

 Googleは、この対策で表現の自由と攻撃的な情報への接続の間の正しいバランスがとれると考えるとしている。

潜在的ISIS参加希望者を反テロ動画に誘導するツール(欧州で)

 Alphabet傘下のシンクタンクJigsawと協力し、ISISに興味を持っている可能性のある視聴者をターゲットとするオンライン広告で、反テロリズム動画にリダイレクトする「Redirect Method」の導入を欧州で拡大する。

 terror 2 Redirect Method

 このプログラムは既に一部地域で導入しており、潜在的なISIS参加希望者が“異常に高いレートで”これらの広告をクリックし、反テロリズム動画を再生したという。


 Googleは昨年12月、Facebook、Microsoft、Twitterとテロ助長コンテンツ排除で協力すると発表した。

 Facebookは16日、同社でのテロ対策についてのブログを公開した。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ