Apple、児童ポルノ検知機能追加を延期 プライバシー抗議受け
Appleは、8月に発表した児童の性的虐待対策機能のiCloudとiMessageへの追加を延期すると発表した。ユーザーやプライバシー保護団体からのフィードバックを受けての決定。当初は米国で年内追加の予定だった。
米Appleは9月3日(現地時間)、8月5日に発表した児童の性的虐待対策の実施を延期すると発表した。ユーザー、プライバシー保護団体、研究者などからの批判的なフィードバックを受けての決定だ。
これらの対策は当初、まずは米国で、iOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで年内に追加する計画だった。
同社は8月5日に公開した関連文書に「2021年9月3日現在の更新:以前、コミュニケーションツールを悪用して子供を脅かす性的略奪者から児童を保護し、児童の性的虐待資料の拡散を制限することを目的とした機能の計画を発表した。お客様、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な児童保護機能をリリースする前に、今後数カ月にわたって情報を収集して改善するために、さらに時間をかけることにした」という文言を追加した。
8月に発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)を送受信しようとすると警告する機能「Communication safety in Messages」、iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、アカウントを停止して当局に報告する機能「CSAM detection for iCloud Photos」、Siriや検索でCSAM関連検索をすると警告する機能の3つ(検出方法などの大まかな解説は関連記事を参照されたい)。
3つの対策の中で、メッセージでの警告とiCloudの写真での画像検知が物議を醸しており、この機能追加をやめるよう求める署名運動も展開されている。
例えば電子フロンティア財団(EFF)は、Appleのメッセージの対策は、「より広範な悪用への扉を開く」と抗議し、反対の署名を集めていた。
EFFは9月3日、Appleによる延期は「十分ではない」とし、「監視計画を放棄するよう求める」請願書を送ると発表した。この請願書には5万人の署名が添えられる。
関連記事
- Appleのフェデリギ上級副社長、児童ポルノ検知ソフト批判に回答
Appleが導入すると発表した児童ポルノ画像の検知・通報ソフトウェアについて、クレイグ・フェデリギ上級副社長がインタビューに応じた。 - 物議をかもすiPhone内の“児童ポルノ画像検知”にAppleがFAQ公開 「メッセージは見ない」「他の写真は検知しない」
Appleが児童性的虐待コンテンツ(CSAM)対策として米国でiOS/iPadOS 15から実施すると発表した新機能が物議を醸している。Appleはそれらの懸念に応えるFAQを公開した。 - Apple、児童保護目的でユーザーの「メッセージ」とiCloudの「写真」の画像検出を実施へ
Appleは児童保護の目的でユーザーのコンテンツを検出する機能を追加する。「メッセージ」とiCloudの「写真」が対象。まずは米国で年内に開始する計画だ。 - 日本を含む7カ国、エンドツーエンド暗号化コンテンツへの公的接続を可能にするよう要請する国際声明
いわゆるファイブアイズと日本、インドが、IT企業に向けた共同声明を発表した。犯罪捜査のため、エンドツーエンド暗号化(E2EE)コンテンツに法執行機関がアクセスできるようにという要請だ。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.