ITmedia NEWS > セキュリティ >
セキュリティ・ホットトピックス

ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは事例で学ぶAIガバナンス(3/4 ページ)

» 2023年03月28日 12時00分 公開
[小林啓倫ITmedia]

もしプロンプトを再学習に利用されたら……

 またNCSCのブログは、プロンプトがモデルの再学習に使われる可能性も指摘している。

 ChatGPTを実現しているGPT-4など、いわゆる「大規模言語モデル」(LLM)と呼ばれるモデルは、文字通り非常に大規模なデータセットに基づいて機械を学習させている。それにより高度な回答を可能にしているわけだが、学習に使用したデータの内容が、ほぼそのまま出力される可能性があることが指摘されている。

 例えば1月、米Amazonの顧問弁護士が、ChatGPTへの機密情報の入力を控えるよう従業員に警告したと報じられている。その際に理由として挙げられたのが、「Amazon社内の既存資料に極めて近い出力結果が表示されるのを目にした」という点だった。真偽は不明なものの、この弁護士はそうした機密情報が、プロンプトを通じてOpenAI側に渡ったのではないかと懸念している。

米Amazonの顧問弁護士が、ChatGPTへの機密情報の入力を控えるよう従業員に警告したとの報道

 OpenAIは、プロンプトをモデルの再学習には使用しないことを明言している。また仮にAmazonの弁護士の話が真実だったとしても、何らかの形で既にインターネット上で入手可能になっていた同社資料が、GPTシリーズを開発する際に学習データとして取り込まれていた可能性もある。

 とはいえ、学習に使用したデータがオリジナルに非常に近い形で出力されてしまう恐れがあることは事実だ。NCSCは、入力されたプロンプトが直ちにChatGPTの再学習に使用されるわけではないという点を認めつつも、蓄積されたプロンプトのデータが「ある時点でサービスやモデルの開発にほぼ確実に使用されることになる」と主張している。

 さらにNCSCは続けて、プロンプトの内容だけでなく、そのメタデータも注意すべきだと訴えている。とある企業のCEOが「従業員を解雇するのに最適な方法」を質問した場合や、質問の内容から誰かの健康状態や人間関係を推定できる場合は、それ自体が一種の情報となりえる。

 こうした点について、米国のサイバーセキュリティ企業であるCyberhavenは、2月に発表したレポートの中で次のような可能性を説明している。

 医師が患者の名前と病状の詳細をChatGPTに入力し、患者の保険会社に送るための、医療処置の必要性を示すレターを作成した。将来、第三者がChatGPTに「(患者の名前)はどんな病気なのですか?」と尋ねた場合、ChatGPTは医師が入力した内容に基づいて答えることができる」

A社の経営者が、自社の2023年戦略文書の箇条書きをChatGPTに入力し、それをパワーポイントのスライドに書き換えてもらった。将来、第三者から「A社の2023年の戦略的優先事項は何ですか」と聞かれた場合、ChatGPTは幹部が入力した情報をもとに答えることができる。

 繰り返しになるが、現時点でOpenAIは、プロンプトをこのような再学習には使用しないと明言している。しかし同社がその方針を翻さないとは限らず、またこれから数多く登場するであろうChatGPT型のサービスを提供する企業の全てが、プロンプトの再利用を行わないとも言い切れない。Googleを始めとして、多くの大手IT企業が「OpenAIに追い付け」とばかり、対話AIの開発競争に乗り出している。

 その中で「プロンプト再利用に踏み込む」という魅力に負ける企業が出てくる可能性は高いだろう。実際、OpenAIに多額の出資を行い、自社製品へのChatGPTの組み込みを進めている米Microsoftが、AIの倫理的利用を管轄するチームを解散させたとの報道が流れている。

 ChatGPT開発・活用の促進へと大きくシフトする中で、AI倫理の軽視とも受け取られない行動をMicrosoft が取ったことについて、将来的なリスクの拡大を懸念する声が高まっている。

Copyright © ITmedia, Inc. All Rights Reserved.