Wikipediaを運営する非営利団体Wikimedia Foundationは3月20日(UTC)にコンテンツガイドラインを更新し、記事コンテンツの生成または書き換えにLLMを使用することを禁止すると明記した。
「ChatGPT、Gemini、DeepSeekなどの大規模言語モデル(LLM)によって生成されたテキストは、Wikipediaのコアコンテンツポリシーのいくつかに違反することがよくあります。そのため、以下の2つの例外を除き、記事コンテンツの生成または書き換えにLLMを使用することは禁止されています。」とある。
2つの例外とは、編集者がLLMを使用して自身の文章に基本的な校正を提案し、人間のレビュー後にその一部を組み込むことと、LLMを使用して他言語版Wikipediaの記事を英語版に翻訳することだ。ただし、後者については、Wikipedia:LLM支援翻訳に記載されているガイドラインに従う必要がある。
記事がLLMで生成されたものかどうかの判断基準などは明示されていない。「編集者の中には、LLMと似たような文体を持つ人もいるかもしれません。制裁を正当化するには、文体や言語上の特徴だけでなく、より多くの証拠が必要であり、テキストがコアコンテンツポリシーに準拠しているか、また、当該編集者による最近の編集内容を考慮するのが最善です」となっている。
Microsoft、AI時代のメディア信頼性レポート公開 多層的な「高信頼性認証」を提唱
AmazonやMetaなどAI企業5社がWikipediaの有償パートナーに
Wikipedia運営元、AI企業にAPIを介したデータ使用料支払いを要求
英語版Wikipedia、新規記事の5%がAI生成 米国の研究者らが調査 AIが生成した記事の特徴とは?Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR