ITmedia NEWS > AI+ >
ITmedia AI+ AI活用のいまが分かる

“AI合成写真”が秒で AdobeのAIがスゴい、けど……「爆発できない」フェイク対策の是非(2/2 ページ)

» 2023年05月26日 18時02分 公開
[岡田有花ITmedia]
前のページへ 1|2       

進化する“AI偽画像” 「写真が証拠になる時代」は終わるか

 AIの進化で、フェイク画像問題はいっそう深刻になりつつある。

 2023年5月22日には、「米国防省(ペンタゴン)で爆発があった」とかたる偽の画像が出回り、米株価が一時、大きく下落する騒動があった。この画像は「AI生成では」といわれている。また日本でも昨年の22年9月、静岡県で水害が起きた際、「ドローンで撮影した静岡の水害画像」と称し、画像生成AIで作った偽画像がTwitterで拡散して物議をかもした。

画像 2022年9月に拡散したツイート

 写真にはこれまで、証拠能力が期待されてきた。「ペンタゴンが爆発しているように見える写真は、ペンタゴンが爆発した証拠になる」と思われていたのだ。

 だがAIにより、自然な合成画像を、誰でも簡単に生成できる時代が来た。写真は“偽の証拠”、フェイク画像に悪用され、その真正性が疑われる時代が来てしまった。

「爆発しない」Adobeの生成技術

 「安全な生成AI」を掲げるAdobeは、「ジェネレーティブ塗りつぶし」にフェイク画像対策を施している。

 例えば「ペンタゴンの爆発画像」は、ジェネレーティブ塗りつぶしでは作ることができなかった。「爆発」と入力すると、画像生成が拒否されるからだ。「米国防省(ペンタゴン)」「火災」「煙」などのワードの他、「女性の裸」もNGワードだった。

 AdobeのAIユーザーガイドラインによると、「ポルノ素材」「現実世界に害を及ぼす可能性のある、誤解を招く、詐欺的、または欺瞞(ぎまん)的なコンテンツの拡散」「暴力または流血表現」などが違反になるという。

画像 「火災」などのワードで生成しようとすると、「生成された画像はユーザーガイドラインに違反するため削除されました」と表示される

 とはいえ、爆発や炎といったイメージは、コンテンツ制作現場で必要とされることも多いだろう。「悪用の可能性が少しでもあれば、機能の提供をやめる」という考え方では、何もできなくなり、ツールそのものの意味がなくなってしまう。

 「安全な」AIも重要だが、安全側に倒すほど自由度は狭まる。「問題なく使えるケースも多いが、悪用もできる」コンテンツの生成について、どこで線を引くか。AI生成ツール各社とも、悩んでいると思われる。

 生成AIの悪用対策としてAdobeは、「コンテンツ認証機能」も提供している。コンテンツを制作したのが人間かAIか、どのタイミングでAI加工を施したのかなど、コンテンツの来歴情報を、メタデータとして付与できるのだ。ただ、今後すべての画像にこのデータが付くわけではないだろう。

 AI生成偽画像が激増していく時代。フェイク画像はますます課題になっていきそうだ。1社のツールが対策していても、別のツールが未対策なら意味が薄い。生成AI全体で、共通の規範やルール、または国際的な法規制が必要になるのかもしれない。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.