「ChatGPT」などを手掛ける米AI研究企業OpenAIは1月31日(現地時間)、テキストが人間が書いたものかAIが書いたものかを判定するツールを無料公開した。英語で書かれたテキストでのテストでは、人が書いたテキストを誤ってAI生成テキストと判定したのは全体の9%だったという。
同社は2019年にも同様の判定ツールを公開しているが、新ツールの信頼性は大幅に向上したとしている。
不完全ながらもこのツールを公開したのは、フィードバックを得るため。フィードバックも反映させつつ、AI生成テキスト検出ツールの改善を続けていく。
ツールはまだ不完全で制限事項も多く、OpenAIはこのツールを「主要な意思決定ツールとしてではなく、(AI生成かどうかを判定する)他の方法を補完するものとして」使うよう求めている。
1000文字以上ないと判定できない。また、英語以外の言語では精度が大幅に下がる。コード(プログラム)についての判定結果は信用できない。人間が書いたテキストをAI生成だと自信を持って判定することがある。判定は、AI生成の可能性が非常に低い、低い、不明確、可能性がある、可能性が高いの5段階。
人間が書いたと確認済みの1000文字以上の日本語テキスト(アイティメディアの記事)で試したところ、判定は中間の「不明確」だった。
ChatGPT公開以来、スパムメール作成や学生による論文作成への利用が問題になっている。米国の教育機関の中には、ChatGPTの利用を禁止したところもある。
OpenAIは、「われわれは米国の教育者と協力し、ChatGPTの機能と制限について話し合って」おり、AI関連の問題の影響を受けている教育者に対し、フィードバックを送るよう求めた。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR