検索
ニュース

サイバーが社内向け「画像生成AIガイドライン」を策定 公開部から見えるガバナンスの考え方

サイバーエージェントが社内向けの「画像生成AIガイドライン」を策定した。禁止事項や注意点を明確化することでクリエイターが安心して画像生成AIと協業できるようにする。

Share
Tweet
LINE
Hatena

 サイバーエージェントは2024年4月3日、画像生成AIの社内利用向けルールを定めた「画像生成AIガイドライン」の一部を発表した。グループに所属するクリエイターに向けて、禁止事項や注意点を明確化するとともに、利用するツールの審査ルールも策定した。

 ガイドライン浸透のため、理解度テストも実施しており、合格しなければツールの利用申請を出してもリジェクトされる仕組みにする。

一部公開されたガイドラインの要点

 同ガイドラインは社内向けのため一般公開はしていないが、要点はオウンドメディアに掲載している。内容は大きく分けて「禁止用途」「利用時の注意点と順守事項」「ツールやモデルの利用審査ルール」の3点だ。

1.禁止用途を明確化

 サイバーエージェントは禁止用途として「機密情報や個人情報を画像生成AIに利用しない」「既存著作物に類似した内容を生成させるための追加学習モデルを利用しない」などを定めている。

 画像生成AIの分野にはLoRA(Low-Rank Adaptation)という技術がある。これは基礎となる画像生成AIと合わせて使うことで、出力画像の絵柄や内容をコントロールするための追加学習モデルやその技術を指す。

 LoRAを使うと品質の安定化などが見込める一方で、特定の画家の作品をまねる使い方もでき、クリエイター間でトラブルになるケースもある。

2.注意点と順守事項の明確化

 注意点と順守事項とは「プロンプトに既存の作品名や人名を入力しない」「許可なく他社の著作物などを画像生成AIに読み込ませて生成しない」「生成物は利用前に類似チェックする」「生成物は加筆や変更するのが望ましい」などのこと。

 画像生成AIの使い方には大きく分けてt2i(Text to Image)とi2i(Image to Image)がある。t2iはテキスト(プロンプト)を入力すると画像が出力される手法で、i2iは参考画像とプロンプトを入力すると画像が出力される。

 これも出力画像をコントロールできる手法だが、他者の作品を入力して類似の画像を生成できるため、トラブルになるケースがある。

3.ツールやモデルの利用審査ルール

 画像生成AIや付随するツールを利用する場合はあらかじめ法務や情報セキュリティ部門で審査する。詳細な選定基準は公開されていないが、サービス内容やライセンス、機能、情報セキュリティ、学習データの信頼性などの面でリスクが高いものは使用を避けるとしている。

AI関連法は解釈が不明瞭 でも整備を待つと遅い

 サイバーエージェントの及川和之氏(クリエイター組織「CA Creative Center」所属)はガイドライン策定の理由について、現状のAI関連法の解釈が不明瞭であることを挙げている。法整備を待ってAIの活用方法を検討するのは「負のインパクトが大きい」という。現時点で会社が安全だと定めた範囲を示すことでグループに属するクリエイターが安心して使えるようにするのが目的としている。

 ガイドライン策定には同社の執行役員と法務メンバー、情報セキュリティ部門が参加。グループ内のクリエイターへのアンケート調査も実施した他、文化庁の文化審議会著作権分科会が公開している資料や過去の事例なども参考にした。

 同社の堀居 健太郎氏(法務・コンプライアンス部)によると、2024年2月に画像生成AIガイドラインを公開して以降、法務への相談が増えており「リスクに気を付けながら可能な範囲で業務に活用しよう、という雰囲気が全社一丸となって醸成され始めている」という。

 今後は社内で事例を増やすとともに、ガイドラインの内容は時代の変化に合わせてアップデートすることで形骸化しないよう継続的に改善するとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る