「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える
「ドローンで撮影した静岡県の水害の画像」と称し、画像生成AIで作った偽の水害画像がTwitterで拡散。フェイクニュースにオリジナルの「フェイク画像」を簡単に添付できる時代が到来している。
この記事は、Yahoo!ニュース個人に9月27日に掲載された『「写真付きフェイクニュース」大量発生時代の幕開けか 静岡水害の“偽画像”問題を考える』を一部編集し、転載したものです。
「ドローンで撮影した静岡県の水害の画像」と称して画像生成AIで作った偽の水害画像が9月26日にTwitterで拡散し、物議をかもした。
画像は、建物や木々が泥水につかった様子を描いており、ぱっと見ただけでは、本物の水害写真に見える。しかしよく見ると不自然なところがあり、合成写真のようにも見える。
画像の投稿者はその後、この写真は画像生成AI「Stable Diffusion」で作った偽の水害画像だと打ち明け、謝罪しつつも、本物と勘違いした人を「ばーか!」「ざまあwww」などと挑発し、議論を呼んだ。
今回の画像はまだ「偽物だと分かりやすかった例」だろう。明らかに一般ユーザーのアカウントから投稿されていたこと、画像をよく見ると不自然な点が多いことなどがその理由だ。
投稿者本人もすぐに“ネタバレ”しており、「これが安易に広がると想定していなかった」などと釈明している。デマを拡散しようという強い悪意を持っていたというより、面白半分だったのかもしれない。
悪意とともに広がるフェイクニュース
強い悪意を持ってデマを拡散するケースもある。例えば、同様の画像を、ニュースの公式サイトに似せた偽アカウントが発信していれば、拡散規模はさらに大きかったかもしれない。画像の不自然な点を手作業で修正したり、ネタバレしなければ、もっと拡散し、デマを信じていた人が増えていた可能性もある。
最近の例では、ニュースサイトに似た体裁の個人ブログに掲載された『トヨタ社長豊田章男氏、ワクチン打たず「DSが人口削減のために用意した遅効性の毒」株価は3%下落』というフェイクニュースが、Yahoo!ニュースに似せた偽アカウントから拡散され、Twitterのトレンド入るほど話題になったこともあった。
画像AIの精度向上が「フェイクを見抜く」をより難しく
これまでのフェイクニュースは、テキストが中心だったり、画像があっても既存の画像を転用していることが多く、第三者から「証拠がない」と判断されたり、「画像は無関係なものだ」と指摘され、収束するケースもあった。
しかし、イメージした画像を誰もが手軽かつリアルに生成できる「Stable Diffusion」などの画像AIが登場した今、事情は変わってきている。画像生成AIを使えば「もっともらしいオリジナル画像」をゼロから作ることができるからだ。
今回の静岡水害の “デマ画像”も、Stable Diffusionで「flood damage, Shizuoka」のキーワードで出てきた画像だと投稿者は述べている。わずか3ワードを入力するだけで、このような写真を生成できる時代なのだ。
それらしい写真を探してこなくても、また、写真合成などの技術がなくても、 適切な“呪文”を唱えることで、簡単にオリジナルの“それらしい写真”を作ってしまえるということだ。
今後、“リアルなフェイクニュース”作りはより簡単になり、それが偽物だと見抜くことはより難しくなっていきそうだ。
関連記事
- フェイクニュースに「注意している」8割も半数近くは「見分ける自信ない」 KSI調査
紀尾井町戦略研究所(KSI)は14日、コロナ禍やロシアによるウクライナ侵攻などで注目を集めたフェイクニュース(偽のニュース)について、常に「注意している」人が7割に上る一方、5割近くが「見分ける自信はない」とする調査結果を発表した。 - 静岡県の水害巡りフェイク画像が拡散 画像生成AIを利用 投稿者はデマと認めるも「ざまあw」と開き直り
台風15号による水害被害が発生している静岡県を巡って、フェイク画像がTwitter上で拡散されている。「ドローンで撮影された静岡県の水害」という画像という画像は、画像生成AIで作成したフェイク画像だった。 - AIが生成した“偽音声”を見抜く技術 99%以上の精度で検出
米フロリダ大学の研究チームは、音声生成モデルで作成された合成音声を見抜く検出器を開発し検証した研究報告を発表した。音声から声の通り道「声道」を作成して、その声道から人の音声か偽物の音声かを識別する。精度は99%以上だという。 - 「AI安倍晋三」ネットで物議 合成音声のYouTube動画、“東京大学AI研究会”が公開
「故安倍晋三元総理追悼AIプロジェクト」がネット上で物議を醸している。東京大学の学生有志が立ち上げたという「東京大学AI研究会(東京大学人工知能研究会)」を名乗る団体が安倍晋三元首相の肉声を再現した合成音声動画を公開した。 - “ガーシー現象”に“トヨタ社長フェイクニュース”、ネット社会の非対称性について考える
米大統領選で顕在化したフェイクニュースによる影響は、日本でも大きなトレンドになっている。本田雅一さんがこの問題に切り込む。 - 画像生成AI「Stable Diffusion」がオープンソース化 商用利用もOK
AIスタートアップ企業の英Stability AIは、画像生成AI「Stable Diffusion」をオープンソース化した。AI技術者向けコミュニティサイト「HuggingFace」でコードやドキュメントを公開した他、同AIを試せるデモサイトなども公開している。
Copyright © ITmedia, Inc. All Rights Reserved.