米Googleは9月3日(現地時間)、インターネット上の児童性的虐待コンテンツ(CSAM;Child Sexual Abuse Material )検出ツールを発表した。「Content Safety API」の1ツールとして、市民団体やNGO、他のテクノロジー企業など、対策に取り組む団体に無料で提供する。
同社は英国のオンライン監視団体Internet Watch Foundation(IWF)や2006年立ち上げの「Technology Coalition」に参加しており、インターネットを使った子どもの虐待や児童ポルノの取引を防ぐ技術の開発・導入に取り組んできた。
IWFなどの団体は、CSAM対策として、ユーザーからの報告やレビュワーによるレビューで問題のあるコンテンツを検出・削除しており、近年ではAIによる画像認識技術も採用している。
新ツールは、画像処理用ディープニューラルネットワークを採用し、レビュワーがチェックすべきCSAMコンテンツをCSAMである可能性の高い順にソートすることで、レビュワーをサポートする。従来のCSAM検出方法は既に検出されたCSAMのハッシュとのマッチングに依存していたが、新ツールはCSAMとして認識されていないコンテンツをターゲットにすることで、犯罪者に追いつけるとGoogleは説明する。
Googleのテストでは、レビュワーはこのシステムを使うことで一定時間に検出・対処するCSAMが700%増加したという。
このシステムを使いたい団体は公式フォーマットから申し込める。
リベンジポルノ相談者数、前年比1.5倍に セーファーインターネット協会が報告
リベンジポルノ相談数、1243件で最多 被害は20代中心 警察庁
Facebook、リベンジポルノを未然に防ぐ機能をテスト中 メッセンジャーで自分宛に写真送付
Google、検索結果に地域の児童誘拐/行方不明情報を掲載Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR