一部の企業はプライバシー保護の観点などから、ChatGPTの利用を制限している。一方でこのツールの活用を促進する企業もある。Appleはこれに対しどういったスタンスを採るのだろうか。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Appleは機密データに対する懸念から、一部の従業員に対して生成AI(人工知能)ツール「ChatGPT」の社内利用を制限していると、『Wall Street Journal』が2023年5月19日に報じた(注1)。この報道を受けて『CIO Dive』がAppleとMicrosoftの代表者にコメントを求めたところ、すぐの回答は得られなかった。
Wall Street Journalは、Appleの従業員から提供を受けた内部情報や文書を引用し、生成AIを使ったコーディング支援ツール「GitHub Copilot」も使用しないよう指示したとも伝えている。
これは生成AIの社内利用を禁止する動きが報告されている他の大企業に続くものだ。J.P.MorganやSamsungも(注2、3)、従業員のChatGPTの利用を禁止または制限していると報告されている。
高品質なアウトプットを得るには詳細なプロンプトエンジニアリングが必要になるため、データのプライバシーに関する懸念は企業が生成AIツールを導入する際の大きな壁となっている。
生成AIを提供する企業は、製品のアップデートを通じてプライバシーに関する懸念に対処する動きを見せている。ChatGPTを開発したOpenAIは2023年4月、ユーザーがチャット履歴を削除できる新機能をプラットフォームに追加した(注4)。
Gartnerの調査によると、ほとんどの経営者が懸念点はあるものの「潜在的な利益がリスクを上回る」と回答している(注5)。5社に1社近くが、生成AIを採用するための先進的なパイロット版を導入しているか、生産段階にあるという。
より広い視点で特に懸念される点としては、規制が整うよりも早く技術が進展する中で、生成AIツールが社会に与える影響が挙げられる(注6)。ホワイトハウスがまとめているAI開発原則である「AI権利章典」(AI Bill of Rights)のような自主的なガイダンスが存在する一方で(注7)、OpenAIのCEOであるサム・アルトマン氏は2023年5月16日(現地時間)、上院司法小委員会の公聴会で議員に対して生成AIの利用を規制するよう他の業界リーダーと共に要請を出した(注8)。
経営幹部は誤用のリスクを軽減するために、生成AIの導入に関する会社の方針を作成し、明確に伝える必要があるとアナリストや専門家も「CIO Dive」に以前語っていた(注9)。
(注1)Apple Restricts Employee Use of ChatGPT, Joining Other Companies Wary of Leaks(THE WALL STREET JOURNAL.)
(注2)JPMorgan Restricts Employees From Using ChatGPT(THE WALL STREET JOURNAL.)
(注3)Samsung employees leaked corporate data in ChatGPT: report(CIO Dive)
(注4)OpenAI adds more data privacy guardrails for ChatGPT(CIO Dive)
(注5)Generative AI worth a shot despite risks, execs say(CIO Dive)
(注6)How much will generative AI disrupt jobs?(CIO Dive)
(注7)Blueprint for an AI Bill of Rights(THE WHITE HOUSE)
(注8)OpenAI CEO asks Congress for AI regulation and a new agency(CIO Dive)
(注9)Generative AI at work: 3 steps to crafting an enterprise policy(CIO Dive)
© Industry Dive. All rights reserved.