ITmedia NEWS >
ニュース
» 2019年08月30日 08時26分 公開

香港で目撃した創造的デモとYouTube 過激なアカウントは取り締まれるか動画の世紀(2/3 ページ)

[小林啓倫,ITmedia]

ヘイトスピーチの取り締まり

 YouTubeによるアカウントの閉鎖に関しては、8月の初めに別の事件も起きています。それは「ソフ(Soph)」と名乗る、14歳の少女のアカウントをめぐる騒動です。

 彼女は極右的な立場を取るYouTuberとして知られ、これまでイスラム教を差別する発言を繰り返していました。さらに今年7月31日には、デマに基づいてLGBTの人々を非難し、彼らに危害を加えることを助長するような動画を投稿。最終的に、YouTubeが「ヘイトスピーチに関するガイドラインに抵触した」という理由で、彼女のアカウントを停止する判断を下しています。

 この際もYouTubeの姿勢自体が非難されることは、ほとんどありませんでした(トランプ米大統領のように、ソーシャルメディア大手によるコンテンツ監視そのものを「検閲」だとして批判する勢力もあるのですが)。議論となったのは、彼女のアカウントを閉鎖できるなら、なぜ他の過激主義者は放置されているのか、ヘイトスピーチがアウトなら陰謀論などを流布するアカウントも取り締まるべきではないか、といった点です。

 公的機関が自らの主張を正当化しようとしてアカウントを設置した場合であれば、サービスを利用する際に使用したネットワークの情報などから、ある程度機械的な取り締まりができるでしょう(実際に前述の香港の例では、アカウントが使用したVPNの情報が判断に使用されたとの報道もあります)。しかし個人が自らの信念に基づいて過激な主張を行う場合には、投稿された動画の内容を逐一確認しなければなりません。

 とはいえWall Street Journal紙の報道によれば、2017年の時点でYouTubeに投稿される動画の量は、1分あたり400時間分に相当しているそうです。一定の視聴回数に達した動画を監視対象とするにしても、人間のスタッフだけで全てをチェックするのは不可能な規模に達しています。

 当然ながら、YouTubeではコンテンツ監視にアルゴリズムの力を導入しています。そして本連載の第3回で紹介したように、その対象範囲は著作権侵害や性的コンテンツなど比較的判断が容易なものを超え、陰謀論など政治的な内容にまで踏み込むようになっています。

 ただ第3回の記事で紹介したのは、アルゴリズムによる自動的な判断の難しさでした。今年4月にパリでノートルダム寺院の火災が起きた際、それを中継する動画に、「関連情報」として9.11(アメリカ同時多発テロ事件)の情報が表示されてしまう手違いが起きています。これは陰謀論の拡散を防ぐために、陰謀論が発生しやすい特定のトピック(9.11や月面着陸など)の動画について、それを自動的に判断して正しい情報をテキストで付与する機能の試験運用で発生したもの。ノートルダム寺院が燃え盛る光景を、9.11の光景だとアルゴリズムが勘違いし、関連情報を載せてしまったというわけです。

 特定のコンテンツに絞った場合でも、現状の精度はこの程度。そうなると特定のアカウントについて、投稿する動画の内容が政治的に過激だからという理由で停止することについては、現状では自動化からは程遠いと考えるべきでしょう。

Copyright © ITmedia, Inc. All Rights Reserved.