ITmedia NEWS > セキュリティ >
セキュリティ・ホットトピックス

ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは事例で学ぶAIガバナンス(2/4 ページ)

» 2023年03月28日 12時00分 公開
[小林啓倫ITmedia]

気付かないうちに、重要情報を入力するリスク

 英国のNCSC(国家サイバーセキュリティセンター)は、GPT-4が発表された3月14日に公式ブログ上で「ChatGPTと大規模言語モデル:何がリスクなのか?」と題された記事を発表している。その中で同センターは、英語で「口は災いの元」を意味する慣用句「loose lips sink ships」(緩い唇が船を沈める)をもじって「Do loose prompts sink ships?」(プロンプトは災いの元?)と問いかけている。

 プロンプトはAIへの質問や指示と、それを補完する情報で構成されている。例えば「謝罪文を書いてください」というプロンプトであれば「書いてください」が指示で「謝罪文」が保管情報となる。NCSCのブログでは、後者を「コンテキスト情報」と表現し、ユーザーがChatGPTからの返答の精度を上げるためにコンテキスト情報を追加することを「プロンプト補強」(プロンプト・オーギュメンテーション)と呼んでいる。

 問題はこのプロンプト補強をするために、ユーザーが多くのテキストやデータをChatGPTに与えがちという点だ。例えば「謝罪文を書いてください」を実際に入力してみると、ChatGPTからこんな答えが返って来る(モデルはGPT-4を使用)。

「謝罪文を書いてください」と指示

 これだけでもかなり優秀だが、実は謝罪したい問題は、プロジェクトの遅延に関してだった。それを踏まえて、こんな風にプロンプト補強してみよう。

より詳細に謝罪内容を伝えた

 コンテキスト情報として「基幹システム刷新プロジェクトが1カ月遅延していて、それを顧客側のプロジェクトマネジャーに謝罪するためのメールなんだけど」というプロンプトを与えた。ChatGPTは「予期せぬ技術的課題」を遅延の原因としているが、それが事実と異なるのであれば、さらなるプロンプト補強をしてやれば良い。「遅延の原因は顧客の仕様変更なので、それを間接的に伝えて」のように。

遅延の原因をさらに入力

 だいぶ意図した文面に近くなった。これで一件落着、といきたいところだが、ここまでの会話で筆者は「とある顧客の基幹システム刷新プロジェクトに参加していて、そこで顧客側の仕様変更を原因とする1カ月の遅延が発生している」ことをChatGPTに漏らしてしまった。この程度であれば大した問題ではないかもしれないが、ユーザーはプロンプト補強をしているうちに、知らず知らず重要な情報を入力してしまう恐れがある。

 もちろんOpenAIが、その情報を悪用する可能性は非常に低い(OpenAIも機密情報を入力しないよう明確にユーザーに注意喚起している)。しかし特定の業界や業種によって、あるいは補強される情報の種類によっては、社外の第三者に提供した瞬間に責任を問われる場合がある。

 またChatGPTではつい先日、別のユーザーの氏名やメールアドレス、住所、クレジットカード番号の下4桁、カードの有効期限が表示される問題や他人のチャット履歴のタイトルが誤って第三者に表示されるというバグが発覚し、緊急メンテナンスを実施していた。プロンプトと会話履歴がOpenAI社内に保管される限り、機密情報をプロンプトに含めるのはリスクが大きいといえるだろう。

Copyright © ITmedia, Inc. All Rights Reserved.