米Google傘下のYouTubeは11月14日(現地時間)、生成AI関連の2つの新たなガイドラインを発表した。
YouTubeのコミュニティガイドラインには既に、視聴者を保護するための多様な規則があるが、生成AIの台頭で新たなリスクが生じており、それに対処するための新たなアプローチが必要になっているとYouTubeは説明する。
クリエイターに対し、AIツールなどを使って現実と見紛う改変あるいは合成コンテンツを生成した場合は、その開示を義務付ける。開示するための新たなオプションを選択できるようにする計画だ。
「開示しないことを一貫して選択したクリエイターは、コンテンツの削除やYouTubeパートナープログラムからの除籍などの罰則の対象になる場合がある」という。
なお、ラベルの有無に関わらず、コミュニティガイドラインに違反するコンテンツは削除される。
このオプションは今後数カ月間にわたって導入する予定。
例えば自分の顔や声が無断でデジタル的に生成されたりディープフェイクに使われたりした場合、プライバシーリクエストプロセスを使ってそうしたコンテンツの削除をリクエストできるようにする(こちらも「今後数カ月」以内に実施する見込み)。
また、音楽レーベルなどが所属アーティストの歌声やラップの声を模倣したAI生成コンテンツの削除をリクエストできる機能も導入する計画だ。
いずれの場合も、すべてのコンテンツを削除するわけではなく、「さまざまな要素」を考慮して削除するかどうかを判断するとしている。
YouTubeとSpotifyでは4月、人気アーティストの声を無断で使った生成AI楽曲が公開され、話題を呼んだ。YouTubeではこのコンテンツは本稿執筆現在も削除されていない。
YouTubeは8月、米音楽レーベル大手のUNIVERSAL MUSIC GROUP(UMG)と提携し、生成AIを適切に使うようにする取り組み「YouTube Music AI Incubator」を立ち上げた。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR