ITmedia NEWS >
ニュース
» 2020年10月27日 07時00分 公開

顔認証技術悪用「ディープフェイク」がアジアで増加傾向 一般人にもリスク

AIを悪用した「ディープフェイク」が深刻な社会問題となりつつある。偽のわいせつ動画で名誉毀損の被害に遭うケースや、要人らの架空の動画が政治問題化する事態も起きている。対策としてディープフェイクを見破る技術も開発されている。

[産経新聞]
産経新聞

 人工知能(AI)の顔認証技術を悪用した精巧な偽動画「ディープフェイク」が深刻な社会問題となりつつある。警視庁などは有名人のわいせつな偽動画を作成した男らを摘発したが、海外では要人らの架空の動画が政治問題化する事態も起きている。個人への名誉毀損にとどまらず、大規模な情報操作に悪用される危険性をはらむディープフェイクへの対策が急がれている。(吉沢智美)

photo

一般人にもリスク

 「大学生レベルの知識や技術があれば、偽動画は作成できる」。ディープフェイクの実情に詳しい国立情報学研究所の山岸順一教授は、こう説明する。

 山岸教授によると、世に出回る偽動画の完成度は精巧なものから稚拙なものまで多種多様。素材さえあれば作成できるため「一般人がSNSにあげた画像などで偽動画が作られるリスクもある」と警鐘を鳴らす。

 ディープフェイクは「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語だ。警視庁によると、顔のデータ3万枚を100万回AIに学習させれば、1週間ほどで10分程度の偽動画ができるという。

 女性芸能人のわいせつな偽動画を作成したとして、警視庁が名誉毀損容疑などで逮捕した男も、約3年間に1000本の動画を作成していたとみられる。

政局に影響も

 ディープフェイクは2017年ごろ、海外で流行し始めたとされる。オランダのIT企業の調査では、20年6月時点で確認されただけでも約4万9000件の偽動画が存在。18年12月時点の約8000件と比較すると約6倍にまで膨れ上がっている。偽動画のターゲットとなった人たちの半数は米国人だが、日本人の割合も4%を占めた。同社はアジアで偽動画が増え続けているとしている。

 海外では政治家の性的動画が捏造(ねつぞう)され拡散する事例が起きた。政治家が他の政治家を罵倒する架空の発言動画も公開されるなどしており、大統領選挙が迫る米国のカリフォルニア州では候補者の言動などを改変した動画の配布を禁じた。

 日本でもディープフェイク拡散の兆しがあり、警視庁によると、20年9月末までに3500本以上のわいせつな動画が確認され、約200人が被害に遭った。

 警察当局は、摘発に本腰を入れるが、作成そのものを禁じる法規制はなく、動画の公開後、摘発に動き出すのが実情だ。捜査関係者は「風評被害を食い止めることも含め、難しい対応を迫られている」と話す。

見破る技術の開発も

 海外では、英国のエネルギー関連会社がドイツの親会社幹部を装った電話で送金を指示され、約2700万円をだまし取られる事件も起きた。声はAIで合成された疑いがあり、一連の技術を組み合わせ、高性能のシステムを使って、より精緻なディープフェイクが作成される恐れもある。

 こうした中、ディープフェイクを見破る技術の研究が進んでいる。米Googleと米Facebookは19年、偽動画の検出ツールを開発する際に重要なデータベースを公開。20年には米Googleと米Microsoftが改ざんされた写真や動画を検知する新技術を発表している。

 山岸教授は「米国などは政治関連のフェイクに敏感で、検知する技術が進んだのではないか」と話す。偽動画を見破る技術をジャーナリストに提供する動きも出てきているという。

 日本でも20年度、文部科学省が、フェイクニュースやフェイク動画などを検知して対処する技術の研究を戦略目標として掲げている。国立情報学研究所でも、ディープフェイクを自動識別する技術の研究が進められているが、山岸教授は「国内では、まだディープフェイクへの関心が薄いのが現状だ」と指摘している。

copyright (c) Sankei Digital All rights reserved.