ITmedia NEWS > 速報 >
ニュース
» 2018年07月05日 14時13分 公開

そんなことは言ってないぞ! 「ディープフェイク」ビデオの脅威 (1/2)

特定人物の発言動画を捏造できる「ディープフェイク」技術の実用化が間近だ。どんな問題が起きるのか?

[AP通信]

 え、私が支持している国会議員が本当にそんなことを言ったのかい? そのビデオに映っているのは本当にドナルド・トランプ大統領なのか? それとも私が騙されてる?

 その人は一度もそんな発言をしていないのに、ビデオでそう言っていると思わせる新しい技術がインターネット上に登場している。米国、西欧民主主義における情報撹乱を図る最新兵器として、誰かに特定の言葉を喋らせてしまうこうしたハイテク技術が登場することを、民主党、共和党のどちらも予測している。

 ここで話題にしているのはリップシンクビデオのことではない。この技術は、フェーシャルマッピングとAI(人工知能)によってビデオを生成することにより、違和感のある部分を見つけられないほど本物そっくりに見えるというものだ。政治家も諜報担当者もこうした虚偽ビデオ「ディープフェイク」によって国家安全保障への危機や選挙への干渉が起きてしまうのではないかと危惧している。

 これまではそうしたことは起きていなかったが、専門家によればすでに実現するかどうかではなく、いつ実現するかという問題だという。「米国ではこれから行われる中間選挙、そして2年後の大統領選挙でこうしたコンテンツが登場し始めると予想している」とニューハンプシャー州ハノーバーのダートマス大学で教授を務め、デジタルフォレンジックを専門とするハニー・ファリド氏は話す。「この技術には国境は存在しないので、世界中に波紋を巻き起こすと予想している」

 一般人が自分が言わせたい内容を大統領に喋らせられるリアルなフェイクビデオを製作できるようになれば、「自分の目で見るものも信じられない、新しい世界に突入することになる」とファリド教授は指摘する。逆もまた真なりで、例えば悲惨な事件などの本物の映像をフェイクだとあしらい、政治的なポイントを稼ぐ人も出てくる。

photo オバマ前大統領のフェーシャルマッピングを使ってフェイクビデオを作ることも可能に(AP Photo)

 米国防高等研究計画局(DARPA)はこの技術が持つ意味を理解しており、フェイク画像やフェイク動画を検知できる技術を開発するための4年計画に2年前から取り組んでいる。現在ではフェイクビデオであることを見破るには広範囲にわたる分析が必要だ。正しい画像であるか、フェイク画像であるかを見破る技術がディープフェイク技術に追いついていけるかは明確でない。

 ディープフェイクという名称は、人工知能の一種であるディープラーニング(深層学習)が活用されていることに由来する。コンピュータにアルゴリズム(命令セット)、特定の人物の大量の画像と音声を与えることで作られる。そのコンピュータプログラムは対象者の表情、癖、声、抑揚を真似る方法を学習していく。対象人物の動画、音声が十分に与えられていれば、フェイク音声とフェイクビデオを組み合わせることが可能で、なんでも好きなことを言わせられる。

       1|2 次のページへ

Copyright The Associated Press. All rights reserved. This material may not be published, broadcast, rewritten or redistributed.