ITmedia NEWS > ネットの話題 >

「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える

» 2022年09月27日 12時47分 公開
[岡田有花ITmedia]

この記事は、Yahoo!ニュース個人に9月27日に掲載された『「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える』を一部編集し、転載したものです。

 「ドローンで撮影した静岡県の水害の画像」と称して画像生成AIで作った偽の水害画像が9月26日にTwitterで拡散し、物議をかもした

 画像は、建物や木々が泥水につかった様子を描いており、ぱっと見ただけでは、本物の水害写真に見える。しかしよく見ると不自然なところがあり、合成写真のようにも見える。

画像 問題の投稿

 画像の投稿者はその後、この写真は画像生成AI「Stable Diffusion」で作った偽の水害画像だと打ち明け、謝罪しつつも、本物と勘違いした人を「ばーか!」「ざまあwww」などと挑発し、議論を呼んだ。

 今回の画像はまだ「偽物だと分かりやすかった例」だろう。明らかに一般ユーザーのアカウントから投稿されていたこと、画像をよく見ると不自然な点が多いことなどがその理由だ。

 投稿者本人もすぐに“ネタバレ”しており、「これが安易に広がると想定していなかった」などと釈明している。デマを拡散しようという強い悪意を持っていたというより、面白半分だったのかもしれない。

悪意とともに広がるフェイクニュース

 強い悪意を持ってデマを拡散するケースもある。例えば、同様の画像を、ニュースの公式サイトに似せた偽アカウントが発信していれば、拡散規模はさらに大きかったかもしれない。画像の不自然な点を手作業で修正したり、ネタバレしなければ、もっと拡散し、デマを信じていた人が増えていた可能性もある。

 最近の例では、ニュースサイトに似た体裁の個人ブログに掲載された『トヨタ社長豊田章男氏、ワクチン打たず「DSが人口削減のために用意した遅効性の毒」株価は3%下落』というフェイクニュースが、Yahoo!ニュースに似せた偽アカウントから拡散され、Twitterのトレンド入るほど話題になったこともあった

画像AIの精度向上が「フェイクを見抜く」をより難しく

 これまでのフェイクニュースは、テキストが中心だったり、画像があっても既存の画像を転用していることが多く、第三者から「証拠がない」と判断されたり、「画像は無関係なものだ」と指摘され、収束するケースもあった。

 しかし、イメージした画像を誰もが手軽かつリアルに生成できる「Stable Diffusion」などの画像AIが登場した今、事情は変わってきている。画像生成AIを使えば「もっともらしいオリジナル画像」をゼロから作ることができるからだ。

 今回の静岡水害の “デマ画像”も、Stable Diffusionで「flood damage, Shizuoka」のキーワードで出てきた画像だと投稿者は述べている。わずか3ワードを入力するだけで、このような写真を生成できる時代なのだ。

 それらしい写真を探してこなくても、また、写真合成などの技術がなくても、 適切な“呪文”を唱えることで、簡単にオリジナルの“それらしい写真”を作ってしまえるということだ。

 今後、“リアルなフェイクニュース”作りはより簡単になり、それが偽物だと見抜くことはより難しくなっていきそうだ。

Copyright © ITmedia, Inc. All Rights Reserved.