Googleが、AI採用の児童の性的虐待コンテンツ(SCAM)検出ツールを対策に取り組む団体や企業に無償提供すると発表した。このツールにより、テストではレビュワーのSCAM対処効率が700%アップしたとしている。
米Googleは9月3日(現地時間)、インターネット上の児童性的虐待コンテンツ(CSAM;Child Sexual Abuse Material )検出ツールを発表した。「Content Safety API」の1ツールとして、市民団体やNGO、他のテクノロジー企業など、対策に取り組む団体に無料で提供する。
同社は英国のオンライン監視団体Internet Watch Foundation(IWF)や2006年立ち上げの「Technology Coalition」に参加しており、インターネットを使った子どもの虐待や児童ポルノの取引を防ぐ技術の開発・導入に取り組んできた。
IWFなどの団体は、CSAM対策として、ユーザーからの報告やレビュワーによるレビューで問題のあるコンテンツを検出・削除しており、近年ではAIによる画像認識技術も採用している。
新ツールは、画像処理用ディープニューラルネットワークを採用し、レビュワーがチェックすべきCSAMコンテンツをCSAMである可能性の高い順にソートすることで、レビュワーをサポートする。従来のCSAM検出方法は既に検出されたCSAMのハッシュとのマッチングに依存していたが、新ツールはCSAMとして認識されていないコンテンツをターゲットにすることで、犯罪者に追いつけるとGoogleは説明する。
Googleのテストでは、レビュワーはこのシステムを使うことで一定時間に検出・対処するCSAMが700%増加したという。
このシステムを使いたい団体は公式フォーマットから申し込める。
Copyright © ITmedia, Inc. All Rights Reserved.