Appleは、間もなく行われるiOSのアップデートで子供たちを有害なメッセージから守る「Child Safety機能」を日本でも提供開始する。これは、Apple標準のメッセージアプリで裸の写真などの有害コンテンツ(CSAM:Child Sexual Abuse Material)の意図しない受信を防ぐなど、子どもの安全を守る機能だ。
本機能を適用すると、誰かからメッセージで裸を含む写真が送られても写真を表示せず、代わりに裸を含む画像が届いたことを警告するメッセージが表示される。そして心に傷を負うことがある可能性を示唆するメッセージと共に、本当に表示したいかを確認するメッセージが現れる。設定によっては、大人に相談するオプションも表示される。同様の警告は裸の写真を送信しようとした際にも表示される。
なお、利用者のプライバシーに配慮して、画像の認識は外部サーバなどに頼らずiPhone端末内で行われ、通信そのものは暗号化された状態だ。裸の写真の送受信の記録がのぞかれることもない。
既に米国では2021年から提供されていた機能で、その後、2022年4月にカナダ、英国、オーストラリア、ニュージーランドといった英語圏に、同年8月にフランスとドイツ、12月にイタリアとスペインに提供国を拡大していた。
今月行われるiOSのアップデートでは、新たに日本、オランダ、スウェーデン、韓国、ブラジル、ベルギーの各国への対応が追加される(他国との違いは表示されるメッセージの言語のみで基本的に同じ)。
Appleは、これまでにもiPhone上での子供の安全を守るための機能として以下を提供してきた。
同社は2021年に、子供を保護するためのイニシアチブを立ち上げ、専門家からさまざまな意見を求めていた。計画の中にはiCloud上に児童ポルノと思われる画像が投稿されていないかを確認し、削除する「iCloud for child sexual abuse material(CSAM)」も提案されたが、この計画は大きな議論を巻き起こす。Appleはユーザーのデータをスキャンしないでも子供を保護できるという結論に達し、この計画を中止し、代わりに2021年12月からChild Safety機能を開始した。
米国では今回、日本で提供された機能に加えて、児童に対する性的搾取などがあった場合、どこに連絡をしたらいいかを相談する機能や、児童の性的搾取につながるような検索をした場合に違法である可能性を示唆し、パートナーなどに相談するように警告を表示する機能をSiri、スポットライト検索、Safari検索に追加している。日本では、これらの機能は少なくとも今回のアップデートでは搭載されない模様だ。
なお、2022年末、米Wiredに掲載された記事では、同機能は子供を保護するためのイニシアチブの最初の一歩に過ぎず、時期は定かではないが、今後、有害なビデオ映像をフィルタリングする機能や、他社製アプリを使ったコミュニケーションへの対応なども計画中のようだ。
Copyright © ITmedia, Inc. All Rights Reserved.