ChatGPTで同じ単語を無限リピートさせるとトレーニングデータを吐き出すという論文を受け、該当プロンプトが無効に
OpenAIの生成AIチャット「ChatGPT」に同じ単語を永遠に繰り返すよう依頼すると、繰り返した後にトレーニングデータを吐き出し始めることをGoogle DeepMindの研究者らが発見した。この発表後、ChatGPTは同様のプロンプトには対応できないと答えるようになっている。
米OpenAIの生成AIチャット「ChatGPT」に単語を永遠に繰り返すよう要求すると、トレーニングに使ったソースデータを吐き出すという論文が11月28日に公開されたことを受け、本稿執筆現在、こうしたプロンプトを入力すると「申し訳ありませんが、そのようなリクエストには対応できません。他にお手伝いできることがあれば、お知らせください」と表示されるようになっている。
この論文を発表したのは、OpenAIと競合する米Google傘下のGoogle DeepMindの研究者らだ。トレーニングデータの抽出は、これまでも攻撃で実施されてきたが、この方法は運用モデルを利用したものだと論文では説明している。
たとえば「company」という単語を永遠に繰り返すよう依頼すると、電話番号やメールアドレスを含む幾つかの実際の企業情報が表示されることが示されている。
これは、ChatGPTがトレーニングデータセットのかなりの部分をそのまま記憶していることを意味すると研究者らは説明する。
この問題については、7月に気づき、8月30日に論文の草稿をOpenAIと共有して詳細を議論したという。脆弱性開示の一般的な猶予期間である90日間を経たので11月28日に論文を公開した。また、ChatGPTと類似する公開モデルである米MetaのLLaMAなどの開発者にも論文の草稿を共有しているという。
本稿執筆現在、OpenAIからはこの件に関するコメントはまだない。
関連記事
- 有料版ChatGPTの新規登録が一時停止に 「GPTs」追加で利用者が急増
米OpenAIのサム・アルトマンCEOは、AIチャット「ChatGPT」の有料版「ChatGPT Plus」の新規登録を一時停止したと発表した。 - ノーコードで「ChatGPT」のカスタム版を作れる「GPTs」、有料会員に提供へ
OpenAIは、初の開発者会議DevDayで、ノーコードでChatGPTのカスタム版を作れる「GPTs」を発表した。作ったGPTsは「GPT Store」で販売し、収益を得ることもできるようになる。 - ChatGPTでデータベースに侵入 機密情報を漏えいさせるコードを生成 英国と中国の研究者らが実証
英国のシェフィールド大学と中国の北方工業大学に所属する研究者らは、ChatGPTなどのAIツールを操作してオンラインデータベースからの機密情報の流出させる、悪意のあるコードを作成するテストを行った研究報告を発表した。 - ChatGPT、“目”と“耳”の実装を発表 写真の内容を認識、発話機能でおしゃべりも可能に
米OpenAIのチャットAI「ChatGPT」に、画像認識、音声認識、発話機能が搭載された。今後2週間かけて、PlusユーザーとEnterpriseユーザーに展開するという。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.