米Microsoftは2月19日(現地時間)、AIの進歩によって急増するデジタルコンテンツの信頼性をどう担保し、ディープフェイクなどの脅威にどう対抗するかを調査したレポート「Media Integrity and Authentication: Status, Directions, and Futures」を公開した。
現在、著名人のあり得ない発言や現実離れした風景画像などが日常的に拡散され、情報の信頼性が大きく揺らいでいる。また、政治や国家間のプロパガンダにおけるAIの悪用も深刻化している。
Microsoftは、単一の技術だけではデジタル上の偽造を防ぐことはできないと結論づけた。例えば、誰が作成、編集したかを示す現行の出所情報は、簡単に削除できてしまう。 また、目に見える「可視透かし」も、安全な出所情報の裏付けなしに単独で用いると、かえって偽造による混乱を招く恐れがある。さらに、従来のカメラで撮影されたメディアも、ハードウェア層に「セキュアエンクレーブ」が実装されていなければ、容易に改ざんの標的となってしまうおそれがある。
同社が新たな脅威として強く警告しているのが「Sociotechnical Attacks」(社会技術的攻撃)だ。 これは、緊迫した政治的イベントなどの「完全に本物の写真」に対し、悪意のある者が意味のないごく一部のピクセルだけをAIで改変して拡散する手口だ。単一のAI検知ツールのみに依存していると、この画像全体を「AIによるフェイク」と誤判定してしまい、結果として本物の出来事そのものを人々に疑わせてしまう(あるいは意図的にフェイクだというナラティブを補強してしまう)危険性がある。
Microsoftの研究チームは、出所情報(C2PA)、目に見えない透かし、デジタル指紋といった既存の手法を60通り組み合わせて、メタデータが削除されたり画像が部分的に改変されたりする様々な失敗シナリオにおいて、どの組み合わせが最も機能するかを検証した。
その検証の結果として、単一の透かしツールを普及させることよりも、C2PAの暗号化された出所情報と目に見えない透かしを強固にリンクさせて使用することが、高い信頼性を得るための最適なアプローチであると結論づけ、複数の技術を多層的に組み合わせる「High-Confidence Authentication」(高信頼性の認証)を提唱している。
これにより、メタデータが削除されても透かしから元の出所情報の復元が可能になり、前述の社会技術的攻撃を受けた際も「画像全体ではなく、どこが部分的にAIで変更されたか」をピンポイントで示すことができるようになるとしている。
なお、エリック・ホロヴィッツCSO(最高科学責任者)は「これらのツールはコンテンツが操作されたかどうかを示すものであり、そのコンテンツが真実かどうかを判定・決定するものではない」としている。
同社はこの基準を業界の設計図として提示している。社内では現在は各製品のエンジニアリングチームが報告書の知見をもとに、今後の製品ロードマップやインフラへの実装を検討している段階という。
ユニセフ、子どもの“性的ディープフェイク”に声明 作成や所持を「犯罪にして」
Microsoft、世界の選挙をディープフェイクなどの攻撃から守るためのツールを提供へ
キヤノン、「画像データの改ざん防止」目指す米団体に参加 Adobe中心に800社以上で構成
Microsoft、MS Research所長のホロヴィッツ氏を初のCSO(最高科学責任者)にCopyright © ITmedia, Inc. All Rights Reserved.