このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。
X: @shiropen2
英インペリアル・カレッジ・ロンドンなどに所属する研究者らが発表した論文「Copyright Traps for Large Language Models」は、大規模言語モデル(LLM)の訓練データに著作権所有者の作品が含まれているかを特定する方法を開発した研究報告である。これは、著者や出版社が自分の作品にさりげなく印を付け、それがAIモデルで使われたかどうかを後で検出できるようにする用途を目的としている。
LLMの学習プロセスで使用されるデータの中に、著作権で保護された内容が含まれていることが問題視されている。この状況を受け、研究者たちは特定の文章がLLMの学習に使われたかどうかを判定する方法を開発した。
この技術は、20世紀の地図作成者たちが不正コピーを検出するために架空の町を地図に入れていたことからヒントを得ている。研究チームは「著作権トラップ」(Copyright Traps)と呼ばれる独自の架空の文章を原文に挿入することで、訓練済みLLMにおけるコンテンツの検出可能性を研究した。
この方法では、著作権所有者が複数の文書にわたって著作権トラップを繰り返し挿入する。その後、LLM開発者がそのデータをスクレイピングして訓練に使用した場合、モデルの出力に現れる不規則性を観察することで、そのデータが訓練に使用されたことを証明できるようになる。
研究チームは、この手法の有効性を検証するため「CroissantLLM」という13億パラメータAIモデルを使用して実験をした。このモデルは3兆個のトークン(おおよそ単語数の意)で学習されている。訓練用データセットにさまざまな著作権トラップを挿入し、LLMに学習させ、モデルの出力を観察した。これらのトラップ文は、長さ(25、50、100トークン)や挿入回数(1、10、100、1000回)を変えて生成した。
実験の結果、短い文(50トークン以下)を100回程度繰り返しても、効果的に検出できないことが分かった。しかし、100トークンの文を1000回繰り返すと、高い精度で検出可能であることが判明した。この結果は、長い文を多数回繰り返すことで、著作権トラップが効果を発揮することを示している。また、予測が困難な文章ほど検出されやすいことも分かった。
このような訓練時にデータを記憶する能力を利用した攻撃を「メンバーシップ推論攻撃」といい、研究が進んでいる。この手法は、訓練中に大量のデータを記憶する大規模な最先端モデルで効果的に機能する。一方で、小規模なモデルは、記憶する量が少ないため、この攻撃を受けにくいとされていた。しかし、今回の「著作権トラップ」は小規模なモデルでも通用することを実証した。
Source and Image Credits: Meeus, Matthieu, et al. “Copyright Traps for Large Language Models.” arXiv preprint arXiv:2402.09363(2024).
Copyright © ITmedia, Inc. All Rights Reserved.