メディア
ITmedia AI+ >

ユニセフ、子どもの“性的ディープフェイク”に声明 作成や所持を「犯罪にして」

» 2026年02月06日 12時53分 公開
[ITmedia]

 国連児童基金(ユニセフ)は2月4日(米国時間)、子どもの性的ディープフェイクに対する声明を出した。同コンテンツの作成や所持などを、犯罪として規制するよう各国政府に呼び掛けている。

ユニセフのロゴ

 性的ディープフェイクとは、生成AIで性的に加工した写真や動画を指す。ユニセフは、子どもの性的ディープフェイクが児童の性的虐待コンテンツ(CSAM、Child Sexual Abuse Material)に当たると指摘。CSAMをAI生成コンテンツまで拡大し、作成や取得、所持、配布を犯罪として扱うことを各国政府に求めた。

 また、子どもの性的ディープフェイクに関し、多くのAIモデルの安全対策が不十分との見方を示し、AI開発者にはより強力な対策を要求した。SNSなどのプラットフォームを運営するIT企業に対しては、AIによるCSAMの流通を防止したり、即時削除したりできる体制を整えるよう呼び掛けた。

 ユニセフや国際刑事警察機構(インターポール)などが11カ国で実施した調査によると、過去1年間で少なくとも120万人の子どもが、性的ディープフェイク被害に遭っているという。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ