ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは:事例で学ぶAIガバナンス(4/4 ページ)
米OpenAIが発表した高性能対話AI「ChatGPT」。大きな盛り上がりを見せているが、利用禁止に踏み切る企業も少なくない。ChatGPTの利用することで、考えられる情報漏えいリスクとは何か。
従業員はChatGPTにどのくらい情報を漏らすか調査 結果は?
Cyberhavenのレポートには、興味深い調査結果も掲載されている。それは実際にChatGPTに対して「企業の従業員がどのくらい機密情報を漏らしているのか」という調査だ。
Cyberhavenは企業に対し、コンプライアンスの観点から社内のデータ管理や統括を行うソフトウェアを提供している。そうした同社のプロダクトを利用する企業から集められたデータを解析したところ、調査対象となったおよそ160万人の従業員のうち、8.2%が職場の環境からChatGPTにアクセスしていたそうである。
さらに社内の機密情報だと考えられるデータをプロンプトに張り付けていた従業員の割合は、3.1%に達していたと結論付けている。
従業員数10万人の企業で考えると、23年2月26日〜3月4日の1週間で、従業員は機密文書を199回、顧客データを173回ChatGPTに入力したと考えられるという。ChatGPTへの注目と人気が高まるにつれ、利用回数は増加傾向にあるそうだ。
同調査では逆にChatGPTから“コピペ”される回数も追跡している。それによると、およそ2対1の割合で情報をコピペ「する」方が多かったそうだ。アウトプットを利用する分には問題ないだろう、と思うかもしれないが、そうとも言い切れない。
前述の通り、大規模言語モデルを利用した対話AIでは、学習に使用したデータがほぼそのまま出力されてしまう恐れがある。何らかの著作権を第三者が保有しているコンテンツや、個人のプライバシーに関わる情報を対話AIが出力し、それを社員が外部公開される資料に張り付けてしまった場合、法的責任を問われる可能性があるのだ。
もちろんChatGPTを始めとする対話AIは非常に強力なツールであり、リスクを恐れて一切の使用を禁止するというわけにもいかない。従業員がどのくらい無意識に「プロンプト補強」をしてしまうのか──のような具体的な調査結果が、これから次々に発表されることだろう。そうしたエビデンスを冷静に見極めつつ、バランスの取れたガバナンスを構築することが求められている。
関連記事
- ChatGPTで個人情報漏えい OpenAIが原因と対策を説明
OpenAIは3月20日にChatGPTをオフラインにした原因を説明した。バグにより、一部のユーザーの個人情報とチャット履歴が他のユーザーに表示されたため。バグは修正し、影響を受けたユーザーには連絡した。 - ChatGPTは舎弟気質? 「高圧的な命令でマルウェア作成など悪用可能」との指摘 犯罪目的の利用に懸念
多彩さと便利さで話題に事欠かない対話型AIの「ChatGPT」だが、マルウェアの作成やフィッシング詐欺といった犯罪目的で利用される恐れもあると、米国のサイバーセキュリティ企業が警鐘を鳴らしている。 - ChatGPTに「クレカ情報丸ごと漏えいって一式保存してたってことなんですか?」と聞いてみたら
AIチャットbot「ChatGPT」に、人間には答えにくい質問や、答えのない問い、ひっかけ問題を尋ねてみたらどんな反応を見せるのか。ChatGPTの反応からAIの可能性、テクノロジーの奥深さ、AIが人間に与える“示唆”を感じ取ってほしい。 - 「AIで詐欺メールと攻撃プログラムの生成に成功」 セキュリティ企業が注意喚起 知識なくても攻撃可能に
チェック・ポイント・ソフトウェア・テクノロジーズは、ChatGPTを使ったサイバー攻撃が起きる可能性があるとして注意喚起した。フィッシングメールや攻撃プログラムの生成に成功したという。 - 「GPT-4」使われすぎ? 受付質問数、どんどん減少 3時間25問→さらに減る見込み
「GPT-4」の利用回数制限が、日に日に厳しくなっている。「需要に合わせて調整」しているといい、利用が殺到しているようだ。
Copyright © ITmedia, Inc. All Rights Reserved.