ITmedia NEWS > 企業・業界動向 >

Apple、児童ポルノ検知機能追加を延期 プライバシー抗議受け

» 2021年09月04日 07時03分 公開
[佐藤由紀子ITmedia]

 米Appleは9月3日(現地時間)、8月5日に発表した児童の性的虐待対策の実施を延期すると発表した。ユーザー、プライバシー保護団体、研究者などからの批判的なフィードバックを受けての決定だ。

 これらの対策は当初、まずは米国で、iOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで年内に追加する計画だった。

 同社は8月5日に公開した関連文書に「2021年9月3日現在の更新:以前、コミュニケーションツールを悪用して子供を脅かす性的略奪者から児童を保護し、児童の性的虐待資料の拡散を制限することを目的とした機能の計画を発表した。お客様、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な児童保護機能をリリースする前に、今後数カ月にわたって情報を収集して改善するために、さらに時間をかけることにした」という文言を追加した。

 csam

 8月に発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)を送受信しようとすると警告する機能「Communication safety in Messages」、iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、アカウントを停止して当局に報告する機能「CSAM detection for iCloud Photos」、Siriや検索でCSAM関連検索をすると警告する機能の3つ(検出方法などの大まかな解説は関連記事を参照されたい)。

 3つの対策の中で、メッセージでの警告とiCloudの写真での画像検知が物議を醸しており、この機能追加をやめるよう求める署名運動も展開されている。

 例えば電子フロンティア財団(EFF)は、Appleのメッセージの対策は、「より広範な悪用への扉を開く」と抗議し、反対の署名を集めていた。

 eff 電子フロンティア財団の抗議文

 EFFは9月3日、Appleによる延期は「十分ではない」とし、「監視計画を放棄するよう求める」請願書を送ると発表した。この請願書には5万人の署名が添えられる。

Copyright © ITmedia, Inc. All Rights Reserved.