国連児童基金(ユニセフ)は2月4日(米国時間)、子どもの性的ディープフェイクに対する声明を出した。同コンテンツの作成や所持などを、犯罪として規制するよう各国政府に呼び掛けている。
性的ディープフェイクとは、生成AIで性的に加工した写真や動画を指す。ユニセフは、子どもの性的ディープフェイクが児童の性的虐待コンテンツ(CSAM、Child Sexual Abuse Material)に当たると指摘。CSAMをAI生成コンテンツまで拡大し、作成や取得、所持、配布を犯罪として扱うことを各国政府に求めた。
また、子どもの性的ディープフェイクに関し、多くのAIモデルの安全対策が不十分との見方を示し、AI開発者にはより強力な対策を要求した。SNSなどのプラットフォームを運営するIT企業に対しては、AIによるCSAMの流通を防止したり、即時削除したりできる体制を整えるよう呼び掛けた。
ユニセフや国際刑事警察機構(インターポール)などが11カ国で実施した調査によると、過去1年間で少なくとも120万人の子どもが、性的ディープフェイク被害に遭っているという。
現状のAI法は「リスク対応後回し」――出版フリーランス労組が声明 AIの“適切な規制”求める
OpenAI、「ChatGPT」に年齢予測機能 未成年の安全保護をAIが自動化
AI生成した「ホロコーストの偽画像」に警鐘 ドイツ政府や追悼団体
Grokアプリ、インドネシア政府がアクセス遮断 「偽ポルノから地域社会を守るため」
「Grok、この女性をビキニにして」無料ユーザーは不可能に X、AI画像編集を一部有料化Copyright © ITmedia, Inc. All Rights Reserved.