SNSが捉えた能登半島地震 進化する「企業防災」の形とは企業が備えるBCP(3/4 ページ)

» 2024年02月28日 12時00分 公開
[米重克洋ITmedia]

人間がファクトチェックできる時代は終わる

 一方で、SNSとりわけXの災害時の活用には、解決しなければならない課題も存在する。

 Xはイーロン・マスク氏に経営権が移ってから、矢継ぎ早に収益化のための製品へのテコ入れを進めてきた。その最たる例が投稿者への収益配分だ。

 マスク氏は、従来著名人やジャーナリスト、企業などの「本人認証」として使われていたバッジを廃止し、代わりに同じバッジをサブスクリプションに加入した全ユーザーが付けられるようにした。加えて、投稿の表示回数(インプレッション)が一定以上あるサブスクリプション加入者には、広告収益の一部が分配されるようになった。この一連の施策により、X上では「本人」と「なりすまし」のアカウントを見分けることが難しくなっただけでなく、なりすましやスパムの類のアカウントが多数の投稿をしてインプレッションを稼ぐ金銭的動機が生まれてしまった。

 その結果出現したのが「インプレゾンビ」という存在だ。インプレゾンビとは、拡散された投稿を全文そのまま無断で転載したり、あるいは無差別に無意味な返信を付けるなどしてなりふり構わずインプレッションを稼ごうとするスパム的なアカウントを指す。「ゾンビ」と称されるだけあって、中身は生身の人間ではなく、生成AIにより自動化されているようだ。能登半島地震直後にも、こうしたアカウント群が地震に関連するデマの類を二次的に拡散するという問題が見受けられた。

 この状況が、今後の災害時により悪化することは恐らく避けられない。その要因の一つが、生成AIのさらなる進化だ。

 近年は、災害時に生成AIでデマを生成する手口が注目されている。日本では22年秋の静岡県における水害を装ったデマ画像の拡散が広く知られている。この時は画像生成AIの「Stable Diffusion」で生成された、架空の水害の写真がXに投稿されて問題になった。

 その後、昨年には米国でも「ペンタゴン(国防総省)付近で爆発があった」という偽の写真が生成されて拡散し、為替相場などに影響を及ぼす事件もあった。これらで用いられた画像は、いずれも生成AI特有の不自然な粗さがあり、人間がコツをつかめば見抜くことはできた。

 だが、そうした牧歌的な時代は既に終わりつつある。

 先日OpenAIが発表した動画生成AI「Sora」は世間に大きな衝撃をもたらした。公開されたデモ映像が実に写実的で、実空間の状況を物理的に破綻なく描き出していたからだ。もちろん開発途上の技術ゆえ粗さも残っており、例えば文字を「模様」として捉えている節があるなど、人間でも見分ける手がかりがまだ残されてはいる。だが、こうした粗さもいずれは克服されるだろう。

OpenAIが発表した動画生成AI「Sora」。公開されたデモ映像はクオリティーの高さで話題を呼ぶ(公式Webサイトより)

 その結果、人間の目で映像を「実写」か「生成されたもの」か見分けられる時代は間もなく終わる。それほどの出来だから、OpenAIがSoraをいきなり一般ユーザーに開放せず、デモンストレーションにとどめて「安全性の確認」を進めているというのは実に妥当な判断だ。

Copyright © ITmedia, Inc. All Rights Reserved.