米Googleは3月27日(現地時間)、2023年の広告安全性レポート(リンク先はPDF)を発表した。
2023年1年間で、ポリシーに違反した55億件以上の広告と、1270万以上の広告アカウントをブロックまたは削除した。対処した広告数もアカウント数も昨年より増加している。アカウントはほぼ倍増だ。
2023年から2024年にかけて、著名人の画像を悪用したディープフェイク広告が検出されるようになったため、こうした広告を検出するための自動適用モデルをトレーニングして大規模な広告削除を開始した。また、こうしたディープフェイク広告を含むMisrepresentation(日本では「不実表示」)に関するポリシーを追加した。
Googleは広告ポリシーを施行するために長年にわたってML(機械学習)システムを使ってきたが、MLに比べてLLM(大規模言語モデル)は「大量のコンテンツを迅速にレビューして解釈でき、コンテンツ内の重要なニュアンスも捉えることができる」ため、新たな不正の傾向が発生するとすぐに認識できるという。
例えば、信頼性の低い金融広告は年々巧妙になってきており、投資アドバイスやデジタル通貨などの新しい金融サービスに合わせて広告を調整し、ユーザーをだまそうとするが、LLMはこうした傾向をすぐに認識し、合法的なビジネスと詐欺を区別できるとしている。
Googleは「広告の安全性のためにLLMの力を活用し始めたばかりだ。昨年一般公開されたGeminiは、Googleの最も有能なAIモードだ。われわれは、その高度な推論機能を広告の安全性と法執行の取り組みに導入し始めたことに興奮している」としている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR