ITmedia NEWS > 社会とIT >

“ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警

» 2020年10月02日 15時35分 公開
[谷井将人ITmedia]

 警視庁と千葉県警察本部は10月2日、AIを使ってポルノ動画に写った人物の顔を芸能人の顔にすり替えた“ディープフェイクポルノ動画”を公開したとして、男性2人を名誉毀損(きそん)と著作権法違反の疑いで逮捕したと発表した。ディープフェイクによるポルノ動画を巡る逮捕は初という。

photo 千葉県警察本部のWebサイト

 大学生の林田拓海容疑者と、システムエンジニアの大槻隆信容疑者は2019年12月から20年7月ごろ、運営していたWebサイトで加工後のポルノ動画を合計約400本公開。約80万円以上の収益を得ていたという。

photo 千葉県警察本部

 警察庁と千葉県警は19年に動画を発見。動画を加工して公開する行為が著作権法に違反し、芸能人の顔に差し替える行為が当該芸能人に対する名誉毀損に当たるとして2人を逮捕した。

 ポルノ動画の作成にはフリーソフトを使っており、両容疑者は「お金が欲しかった」「評価を得るために公開した」と容疑を認めている。

 AIで動画を加工して公開する行為が摘発されたのは初だが、千葉県警は「AIを使わない既存の手段でも、同様の行為を行えば逮捕する可能性はある」としている。

Copyright © ITmedia, Inc. All Rights Reserved.