ITmedia NEWS > セキュリティ >
セキュリティ・ホットトピックス

ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは事例で学ぶAIガバナンス(4/4 ページ)

» 2023年03月28日 12時00分 公開
[小林啓倫ITmedia]
前のページへ 1|2|3|4       

従業員はChatGPTにどのくらい情報を漏らすか調査 結果は?

 Cyberhavenのレポートには、興味深い調査結果も掲載されている。それは実際にChatGPTに対して「企業の従業員がどのくらい機密情報を漏らしているのか」という調査だ。

 Cyberhavenは企業に対し、コンプライアンスの観点から社内のデータ管理や統括を行うソフトウェアを提供している。そうした同社のプロダクトを利用する企業から集められたデータを解析したところ、調査対象となったおよそ160万人の従業員のうち、8.2%が職場の環境からChatGPTにアクセスしていたそうである。

 さらに社内の機密情報だと考えられるデータをプロンプトに張り付けていた従業員の割合は、3.1%に達していたと結論付けている。

 従業員数10万人の企業で考えると、23年2月26日〜3月4日の1週間で、従業員は機密文書を199回、顧客データを173回ChatGPTに入力したと考えられるという。ChatGPTへの注目と人気が高まるにつれ、利用回数は増加傾向にあるそうだ。

 同調査では逆にChatGPTから“コピペ”される回数も追跡している。それによると、およそ2対1の割合で情報をコピペ「する」方が多かったそうだ。アウトプットを利用する分には問題ないだろう、と思うかもしれないが、そうとも言い切れない。

 前述の通り、大規模言語モデルを利用した対話AIでは、学習に使用したデータがほぼそのまま出力されてしまう恐れがある。何らかの著作権を第三者が保有しているコンテンツや、個人のプライバシーに関わる情報を対話AIが出力し、それを社員が外部公開される資料に張り付けてしまった場合、法的責任を問われる可能性があるのだ。

 もちろんChatGPTを始めとする対話AIは非常に強力なツールであり、リスクを恐れて一切の使用を禁止するというわけにもいかない。従業員がどのくらい無意識に「プロンプト補強」をしてしまうのか──のような具体的な調査結果が、これから次々に発表されることだろう。そうしたエビデンスを冷静に見極めつつ、バランスの取れたガバナンスを構築することが求められている。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.