米OpenAIの生成AIチャット「ChatGPT」に単語を永遠に繰り返すよう要求すると、トレーニングに使ったソースデータを吐き出すという論文が11月28日に公開されたことを受け、本稿執筆現在、こうしたプロンプトを入力すると「申し訳ありませんが、そのようなリクエストには対応できません。他にお手伝いできることがあれば、お知らせください」と表示されるようになっている。
この論文を発表したのは、OpenAIと競合する米Google傘下のGoogle DeepMindの研究者らだ。トレーニングデータの抽出は、これまでも攻撃で実施されてきたが、この方法は運用モデルを利用したものだと論文では説明している。
たとえば「company」という単語を永遠に繰り返すよう依頼すると、電話番号やメールアドレスを含む幾つかの実際の企業情報が表示されることが示されている。
これは、ChatGPTがトレーニングデータセットのかなりの部分をそのまま記憶していることを意味すると研究者らは説明する。
この問題については、7月に気づき、8月30日に論文の草稿をOpenAIと共有して詳細を議論したという。脆弱性開示の一般的な猶予期間である90日間を経たので11月28日に論文を公開した。また、ChatGPTと類似する公開モデルである米MetaのLLaMAなどの開発者にも論文の草稿を共有しているという。
本稿執筆現在、OpenAIからはこの件に関するコメントはまだない。
有料版ChatGPTの新規登録が一時停止に 「GPTs」追加で利用者が急増
ノーコードで「ChatGPT」のカスタム版を作れる「GPTs」、有料会員に提供へ
ChatGPTでデータベースに侵入 機密情報を漏えいさせるコードを生成 英国と中国の研究者らが実証
ChatGPT、“目”と“耳”の実装を発表 写真の内容を認識、発話機能でおしゃべりも可能にCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR