次に、AIが生み出した害を軽減する減災だが、そもそもAIの存在に人間が気づかない場合も多い。
例えば、AIが動画に登場する人物の表情や音声を勝手に加工していたらどうだろう。本人は発言していないことを「発言した」ことにされてしまったら――少なくとも視聴者は気づかないのではないだろうか。
これは決して絵空事ではない。いま多くのメディアで「ディープフェイク」と呼ばれる行為への懸念が取りざたされている。BuzzFeedが制作・公開した次の映像をご覧になった人も多いだろう。これは、AIを活用してつくったオバマ前大統領の「フェイク動画」だ。
ディープラーニングのような高度なAI技術を使い、非常にリアルなフェイク動画をつくるのがディープフェイクだ。
上の映像のように、警告やジョークとして作成される場合もあれば、「アダルト映像とセレブの顔を組み合わせる」「攻撃したい政治家の失態を装う」など、より悪意が込められている場合もある。それらは非常に精巧につくられ、一見すると人間でも見分けがつかない。
最近は、AI自体にこうした画像・映像の加工を判定させる研究が行われている。米Adobeと米カリフォルニア大学は「Photoshopで加工された人間の顔」を検知するツールを共同開発した。深層学習の一種である「畳み込みニューラルネットワーク」(CNN)を活用しており、人間に比べて2倍の精度で「加工された顔」を見分けられるという。
フェイクニュースの世界では、「1つのフェイクニュースをまるまるAIで作成する」技術も開発されている。AIを研究する非営利団体のOpenAIは今年2月、非常に精巧な文章を生成する言語モデル「GPT-2」を発表した。
もともとはフェイクニュースの作成を目的とした技術ではないが、ニュース冒頭のテキストを与えるだけで、残りの部分を勝手に補完して自然な文章を作成できてしまう。OpenAIは技術の悪用を恐れ、GPT-2のオープンソース化はせず論文の発表のみにとどめている(つまり自主規制)。
こうしたテキスト系のフェイクについても、AIに自動検知させる取り組みが進んでいる。例えば、MIT-IBM Watson AIラボとハーバード大の自然言語処理研究チームが行った実験では、GPT-2が作成した文章と人間が作成した文章をAIに比較させた。実験では、GPT-2が作成した文章について、AIはある程度まで「機械によって生成された可能性がある」と指摘できたという。
しかし、こうした検知ツールを持っていなかったり、そもそもAIを使ったアプリケーションの情報が外部に公開されていなかったりする場合は、どうすればいいのだろうか。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR