「生成AI」のリスクを法制度から考える――国立情報学研究所の講演から探るWeekly Memo(1/2 ページ)

今、話題沸騰の生成AI。影響は広がるばかりだが、一方でリスクへの対応も不可欠だ。とくに法制度における信頼性の観点から見た生成AIのリスクとは何か。国立情報学研究所の講演から探ってみる。

» 2023年06月12日 15時40分 公開
[松岡功ITmedia]

 「ChatGPT」をはじめとした生成AI(人工知能)の影響力が日に日に増している。それゆえにリスクへの対応も不可欠だ。2023年5月に広島で開かれた主要7カ国首脳会議(G7広島サミット)でも重要議題の一つとして話し合われ、年内にG7としての見解をまとめる運びだ。

 特に法制度における信頼性の観点から見た生成AIのリスクとは何か。この疑問に対し、国立情報学研究所(以下、NII)が2023年6月2〜3日に開催した「オープンハウス 2023」(注1)の初日の基調講演で、一橋大学大学院法学研究科ビジネスロー専攻教授の生貝直人氏が「生成AIと法制度」について解説していた内容が分かりやすかったので、本稿で取り上げて探ってみたい。

一橋大学大学院法学研究科ビジネスロー専攻教授の生貝直人氏

著作権とプロンプトエンジニアリングの関係

 生貝氏は、法制度における信頼性の観点から見た生成AIのリスクとして、「著作権」「個人情報・プライバシー」「有害情報」の3つを挙げ、それぞれの論点について以下のように示した。

 まず著作権については、「開発・学習段階」「生成・利用段階」「生成物の著作権は誰のものか」といった3つの論点があるという。

 1つ目の開発・学習段階では、著作権法(30条の4)により、「情報解析等のための著作物に表現された思想又は感情の享受を目的としない利用行為は、原則として権利制限の対象。ただし、必要と認められる限度であることが必要で、著作権者の利益を不当に害することとなる場合には権利制限の対象とはならない」と定められている。

 生貝氏はこの論点について、「『著作権者の利益を不当に害することとなる場合』と非常にふわっとした記述の上で『権利制限の対象とはならない』としている。このふわっとした記述をどう解釈していくかというのが、これから重要な議論になっていく」との見方を示した。

 2つ目の生成・利用段階では、「既存著作物との類似性と依拠性(いきょせい)が認められた場合、生成物の利用が著作権侵害となる場合がある」と定められている。依拠性とは「既存の他人の著作物を利用して創作したこと」を指す。

 生貝氏はこの論点について、「『既存著作物との類似性と依拠性が認められた場合』とあるが、認められるためには証拠が必要になる。ならば、類似性と依拠性の中身をもっと明らかにすべきではないか。そうした議論が今後進んでいくだろう」と述べた。

 3つ目に挙げた生成物の著作権は誰のものかについて同氏は、「著作権が保護するのは人による創作物だけなので、AIによる作品は保護の対象とはならない。ただし、AIを道具として利用した場合にはその人の著作物となり得る」と説明。その上で、次のように述べた。

 「例えば、非常に複雑なプロンプトエンジニアリングによる結果として生成されたものについては、それを行った人の著作物となる可能性があるが、単純なプロンプトで生成されたものならば、著作物とは認められないだろう。その複雑か単純かの線引きをどう明確にしていくかが、これから重要な議論になっていく」

 「プロンプトエンジニアリング」とは、生成AIに的確な指示を出して質の高い内容を引き出す技術のことだ。最近ではこれを専門に行う「プロンプトエンジニア」も注目されている。この新たな技術と著作権との関係も注視していく必要がありそうだ。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ