コラム
» 2019年05月26日 06時00分 公開

ITはみ出しコラム:写真から本人そっくりの動画をAIで生成 フェイク動画を後押しするリスクも

お手軽編集で作られた米下院議長のフェイク動画がSNSで拡散して話題になりました。これからAIを使って生成したフェイク動画が本物そっくりになっていったら、人が見分けたり、取り締まったりが難しくなりそうです。

[佐藤由紀子,ITmedia]

 先日、SNS×動画の力の脅威について実感することがありました。米民主党のナンシー・ペロシ下院議長がインタビューでなんだか酔っぱらっているような話し方をしている動画がYouTubeで公開され、瞬く間にTwitterやFacebookで拡散したのです。トランプ大統領も喜々としてツイートしました(後に削除)。

 米Washington Postの記者、ドリュー・ハーウェル氏が、この動画が低レベルな動画編集方法で偽造したフェイク動画だと記事で喝破し、YouTubeとTwitterはサービス上から動画を削除しましたが、Facebookではこれを書いている今、まだ残っていて、既に255万回再生されています。

Politics WatchDog Facebookに残っていたフェイク動画より

 見てみると、動作が緩慢で、ろれつが回っていないように聞こえます。Facebookに投稿したのは保守的なFacebookページ「Politics WatchDog」で、添えられている説明は「ナンシー・ペロシ下院議長、トランプ大統領によるインフラ会議打ち切りについて語る:それはとてもとてもとても奇妙でした」というもので、あたかもインタビューの収録をそのまま掲載しているようです。

 でもWashington Postの記事によると、これは動画をスロー再生して編集したもの。スローにすると音声は低くなりますが、簡単にピッチを上げることができます。記事には編集前の映像も紹介されているので、これがフェイク動画だということは一目瞭然。

 こういう、高度な技術を必要としない手軽なフェイク動画は「シャロー(浅い)フェイク」と呼ばれています。もともと、AIを使って作る本格的なフェイクを「ディープフェイク」と呼ぶことから来ています。

 シャローフェイクでもこれだけ拡散して影響を与えるのだから、これからディープフェイクが本物と見分けがつかなくなってきたら、取り締まるのは難しくなりそうです。

 それを実感する動画を、SamsungのAI Center(ロシアのモスクワにある)の研究者らがYouTubeで公開しました。「Few-Shot Adversarial Learning of Realistic Neural Talking Head Models」というタイトルです。


 ディープラーニングの手法の1つ、GAN(敵対的生成技術)を使った、人が会話する動きの頭部モデルを使えば、数枚の顔写真を元にその顔の人が会話している動画を作れるよ、という内容です。

 動画と論文(リンク先はPDF)にもあるように、GANを使った動画作成ツールは既に幾つかありますが、それらと比較してもかなり自然です。

 サンプルとして文豪ドストエフスキー(動画の4分40秒目あたり)やクラムスコイの名作「忘れえぬ女」(4分55秒目あたり)を使っているのがさすがロシア。いずれも元にした画像は1枚です。

The Unknown Woman 写真だけではなく、絵画もこの通り。こちらはイワン・クラムスコイの名作「忘れえぬ女」

 この手法は「Few-Shot Learning(少数ショット学習)」というそうですが、1ショットでも学習できてしまいます。この写真を動かすための動きの方を作るのは大変で、敵対的訓練を受けたディープコンボリューションネットワーク(ConvNets)とやらを使って、顔の多数の部位のランドマークで構成する、動くお面みたいなものを作ります。薄ぼんやり理解した範囲では、このお面のランドマークを顔写真のランドマークに変換して写真を動かすという感じだと思います。

Few-Shot Learning 少数ショット学習の仕組み

 課題としては、人間の顔のランドマークは人によってかなり違うので、汎用(はんよう)的なお面では自然に動かせない顔もあること。

 でもこれができるということは、ペロシさんのように多数の映像が公開されている著名人であれば、本人の映像からお面を作ることもできるでしょう。あるいは、骨格がそっくりな人にひどいことを言わせる動画からお面を作ってペロシさんの顔写真で動かせば、本物みたいに見えるかもしれません。

 立派なAIラボを持つFacebookでさえ、シャローフェイク動画をフェイクだと判断するのにものすごく時間がかかりました(しかも「編集した動画を掲載するのはポリシー違反じゃない」としてこの動画は削除しない方針だそうです)。

 ディープフェイクを禁じる法案も出されていますが、ディープフェイクかどうかを技術的に見破れるのかどうかはまた別の問題です。

Copyright © ITmedia, Inc. All Rights Reserved.

この記事が気に入ったら
ITmedia PC USER に「いいね!」しよう