AIの進化で、フェイク画像問題はいっそう深刻になりつつある。
2023年5月22日には、「米国防省(ペンタゴン)で爆発があった」とかたる偽の画像が出回り、米株価が一時、大きく下落する騒動があった。この画像は「AI生成では」といわれている。また日本でも昨年の22年9月、静岡県で水害が起きた際、「ドローンで撮影した静岡の水害画像」と称し、画像生成AIで作った偽画像がTwitterで拡散して物議をかもした。
写真にはこれまで、証拠能力が期待されてきた。「ペンタゴンが爆発しているように見える写真は、ペンタゴンが爆発した証拠になる」と思われていたのだ。
だがAIにより、自然な合成画像を、誰でも簡単に生成できる時代が来た。写真は“偽の証拠”、フェイク画像に悪用され、その真正性が疑われる時代が来てしまった。
「安全な生成AI」を掲げるAdobeは、「ジェネレーティブ塗りつぶし」にフェイク画像対策を施している。
例えば「ペンタゴンの爆発画像」は、ジェネレーティブ塗りつぶしでは作ることができなかった。「爆発」と入力すると、画像生成が拒否されるからだ。「米国防省(ペンタゴン)」「火災」「煙」などのワードの他、「女性の裸」もNGワードだった。
AdobeのAIユーザーガイドラインによると、「ポルノ素材」「現実世界に害を及ぼす可能性のある、誤解を招く、詐欺的、または欺瞞(ぎまん)的なコンテンツの拡散」「暴力または流血表現」などが違反になるという。
とはいえ、爆発や炎といったイメージは、コンテンツ制作現場で必要とされることも多いだろう。「悪用の可能性が少しでもあれば、機能の提供をやめる」という考え方では、何もできなくなり、ツールそのものの意味がなくなってしまう。
「安全な」AIも重要だが、安全側に倒すほど自由度は狭まる。「問題なく使えるケースも多いが、悪用もできる」コンテンツの生成について、どこで線を引くか。AI生成ツール各社とも、悩んでいると思われる。
生成AIの悪用対策としてAdobeは、「コンテンツ認証機能」も提供している。コンテンツを制作したのが人間かAIか、どのタイミングでAI加工を施したのかなど、コンテンツの来歴情報を、メタデータとして付与できるのだ。ただ、今後すべての画像にこのデータが付くわけではないだろう。
AI生成偽画像が激増していく時代。フェイク画像はますます課題になっていきそうだ。1社のツールが対策していても、別のツールが未対策なら意味が薄い。生成AI全体で、共通の規範やルール、または国際的な法規制が必要になるのかもしれない。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR