ITmedia NEWS > STUDIO >

物議をかもすiPhone内の“児童ポルノ画像検知”にAppleがFAQ公開 「メッセージは見ない」「他の写真は検知しない」

» 2021年08月10日 09時09分 公開
[佐藤由紀子ITmedia]

 米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。

 csam

 発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)を送受信しようとすると警告する機能「Communication safety in Messages」、iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、アカウントを停止して当局に報告する機能「CSAM detection for iCloud Photos」、Siriや検索でCSAM関連検索をすると警告する機能の3つ(検出方法などの大まかな解説は関連記事を参照されたい)。

 CSAMとは、米国連邦政府による「児童ポルノ」の定義に準じ、性的に露骨な行為に関与する未成年の使用に関する、写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写が該当する(Googleの解説より)。

 3つの対策の中で、メッセージでの警告とiCloudの写真での画像検知が物議を醸しており、この機能追加をやめるよう求める署名運動も展開されている。本稿執筆現在、この運動では6649人の個人と34の団体が署名している。

 csam 2 署名運動

 懸念の中心は、Appleがユーザーのデータにアクセスできるようになるのではないかということと、CSAM検知の技術が政府などによってCSAM以外の検知に使われる可能性だ。電子フロンティア財団(EFF)は「CSAMにのみ使えるクライアント側のスキャンシステムの構築は不可能だ。その結果、善意の努力であっても、より広範な悪用への扉を開く。(中略)外部からの圧力によってわずかな変化が生じるのを待つだけだ」と主張した。

 Appleは、メッセージについては、データはE2EE(エンドツーエンドの暗号化)になっており、Appleが内容を見ることはないという説明を繰り返した。

 iCloudの写真については、「この技術はCSAM以外を検出することに流用できるのか?」という質問に「システムは、iCloudの写真でCSAMとして知られている写真のみを報告するように設計されている」と答えている。また、「政府がAppleにCSAM以外の画像のハッシュリストを強要できるのでは?」という質問には「Appleはそういう命令を拒否する。これまでも、ユーザーのプライバシーを低下させる政府からシステムを変更して協力しうるようにという要求に直面しているが、それらの要求を断固として拒否してきた。今後も拒否する」としている。例えば2016年に米連邦政府が銃乱射事件の容疑者のiPhoneのデータ保護機能を無効にするよう命じ、これを拒否したことなどを指す。

 ただ、Appleは常に、事業を行っている各国の法律を順守するとも言っており、例えば中国では、中国国民のiCloudデータを政府管轄下の企業が所有するサーバに保存することを法的に義務付けられている。こうした国で将来Appleが政府の命令を拒否できるのかどうかは不明だ。

Copyright © ITmedia, Inc. All Rights Reserved.