まるで本物 「ディープフェイク」動画の危険性世界を読み解くニュース・サロン(3/4 ページ)

» 2018年05月10日 07時30分 公開
[山田敏弘ITmedia]

偽ポルノ動画の被害も

 問題はそれだけではない。こんなテクノロジーが利用できるようになったら、良からぬことに使う人たちも出てくる。例えば、ポルノへの活用である。すでに被害者も出ている。

 被害に遭っているのは、女優のスカーレット・ヨハンソンや、映画『ハリー・ポッター』シリーズで知られる女優のエマ・ワトソン、映画『ワンダーウーマン』のガル・ガドット、米歌手のケイティ・ペリーやテイラー・スウィフトなどだ。彼女たちがポルノ映像に出演しているかのような動画が作られた。顔は間違いなく彼女たちだが、体はポルノ女優のものだ。

 実を言うと、もともとはこうしたポルノ動画によって、この「ディープフェイク」は広く知られるようになった。17年12月頃に、女優の顔を使ったポルノ動画を、米国発の人気掲示板サイト「Reddit」で次々に上げたのが、「ディープフェイク」という名前のユーザーだった。そこから、こうした動画は、「ディープフェイク」と呼ばれるようになった。

 AIのマシン・ラーニングのアルゴリズムを使って、存在する動画に有名人の顔を当てはめたポルノビデオを作る人たちのコミュニティーから、「ディープフェイク」はどんどん話題になった。しかもそうした動画を簡単に作れてしまうアプリ「FakeApp」も広く知られるようになった。

 ただこんな動画が許されていいはずがない。しかも、こうした動画は顔がよく知られた女優だったからまだ「偽物」だと確認できるが、はめ込まれる顔が、素人のものなら真偽は分かりづらい。つまり、リベンジポルノなどに活用されかねないとの懸念も指摘された。

Copyright © ITmedia, Inc. All Rights Reserved.