米Googleは8月10日(現地時間)、18歳未満(以下「未成年」とする)のユーザーを保護するための多数の機能制限やポリシー変更を発表した。一部は向こう数週間中に、その他は向こう数カ月中に、世界で適用していく。
YouTubeを含むGoogleのすべてのサービスで、未成年向けの広告では年齢・性別・関心に基づくターゲティングをブロックする。
Googleとその傘下のYouTubeは2019年、保護者の同意なしに子どもの個人情報を違法に収集したとして米連邦取引委員会(FTC)に1億7000万ドルの和解金を支払い、その後YouTubeで子ども向けコンテンツに関する新ルールを展開した。
この制限は向こう数カ月で実施する。
未成年のデフォルトのアップロード設定を最もプライベートなオプションにする。これは向こう数週間以内に実施する。
デジタルウェルビーイング機能をより目立つように表示し、商用コンテンツに関する保護手段と説明を提供する。
デジタルウェルビーイングツールで、未成年の休憩と就寝時のリマインダーをデフォルトオンにし、自動再生をオフにする(オンにすることは可能)。
YouTube Kidsに自動再生オプションを追加するが、デフォルトでオフにし、保護者が選択できるようにする。
ポリシーを改定し、未成年とその保護者が、検索結果から画像の削除をリクエストできるようにする。リクエストされた画像は検索結果に表示されなくなるが、Webから消えるわけではない。(向こう数カ月で実施)
また、これまでファミリーリンクの13歳未満でデフォルトだった「セーフサーチ」が未成年でも有効になる。既にあるアカウントでもオンに切り替え、今後新規に作られるアカウントではデフォルトでオンになる。(向こう数週間で実施)
この他、スマートディスプレイのWebブラウザでのセーフサーチを適用、未成年のロケーション履歴のオフ(オンにできない)、Google Playストアでの安全強化なども向こう数カ月で実施していく。
GoogleやFacebookなどのいわゆるビッグテックが子どもに与える影響については近年、多数の国の規制当局が監視を強めている。
7月には米Facebookが、若いユーザーのターゲティングを制限した(もっともこちらは年齢・性別・位置情報でのターゲティングはOK)。
米Appleは今月、児童保護目的でユーザーの「メッセージ」とiCloudの「写真」の画像検知を米国で実施すると発表した。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR