米Google傘下のYouTubeは9月22日(現地時間)、プラットフォーム上で未成年者を保護するための複数の取り組みを発表した。
まず、これまで機械学習で検出し、人間のTrust & Safetyチームが判定してきた年齢制限が必要な動画の判定を、AIで自動化する。
年齢制限の対象は、YouTubeのポリシーには違反していなくても、18歳未満の視聴者にふさわしくないと判断されたコンテンツ(動画だけでなく、その説明やサムネイルを含む)。18歳未満またはログインしていない視聴者は、制限を設定された動画を視聴できない。また、広告による収益が制限されるか、まったくなくなる可能性がある。制限されたクリエーターは、不服であれば申し立てが可能だ。
次に、YouTubeの外(サードパーティのWebサイトなど)で年齢制限が設定された動画を再生しようとすると、YouTubeにリダイレクトされるようになる。こうすることで、年齢制限のある動画がどこにあっても、適切な視聴者だけが視聴できることになる。
3つ目として、自動化すると対象動画が増えると想定し、年齢制限に関するポリシーを改めて調整した。新しいポリシーはこちらで確認できる。
最後に、欧州連合の視聴覚メディアサービス指令(AVMSD)などに準拠するため、欧州の一部のユーザーは、成人向けコンテンツの視聴の際に年齢証明を求められるようになる。視聴者が18歳以上であることをYouTubeが確認できない場合は、IDあるいはクレジットカード番号を入力することで年齢を証明するよう求めるという。
YouTube、システムで自動削除した動画が倍増 ポリシー違反を判断する正確性より確実な削除を優先
子供向け動画アプリ「YouTube Kids」が、tvOSに対応
新型コロナウイルスで削除される動画が増える? パンデミックが促すYouTubeの変化
YouTube、ゲームの暴力シーンの扱いを映画やテレビと同等に
Google、YouTubeの児童保護法違反でFTCに1億7000万ドル(約180億円)の和解金
YouTube、不適切なコンテンツ対策を強化 「YouTube Kids」ガイドライン公開もCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR