AIが日常的に使われるようになり、ユーザーは自身のデータがどのように取り扱われるのかますます敏感になっている。Slackはこうしたユーザーからの懸念を受け、プライバシーポリシーを更新した。
Salesforce傘下のSlackは、2024年5月第3週初めに顧客からデータ使用権に関する懸念が浮上したことを受け、2024年5月17日にAI(人工知能)とML(機械学習)のプライバシーポリシーの文言を更新した。
AIモデルのトレーニングデータにおける顧客データの扱いはどのようになっているのだろうか。
Slackは、「特に従来のMLモデルと生成AIにおけるデータの使用方法の違いに関して、当社のアプローチの説明が不足していた」と説明した(注1)。
コラボレーションプラットフォームの「Slack」は顧客データを使ってLLM(大規模言語モデル)やその他の生成モデルを開発することも、AIモデルを訓練するためにメッセージの内容をスキャンすることもないという。Slackはポリシーや運用方法を変更したわけではなく、「より明確にするために文言を更新した」と述べた。
顧客は広い範囲にわたってユーザーデータを把握するようなサービス提供ポリシーに対して不安を感じる。それには正当な理由がある。
企業は、機密性の高い内部データがサードパーティー製のAIモデルに利用されることを恐れている。2023年8月にソフトウェア会社のAlteryxが300人のデータリーダーを対象にした調査によると、生成AIを使用する企業にとって最大の懸念事項は、データの所有権とデータプライバシー、そして知的財産の保護だ(注2)。
Slackは、顧客データがLLMプロバイダーによってアクセスされることはないと述べている。しかし、ポリシーに不明瞭な文言が使われていると、顧客の信頼を損なう可能性がある(注3)。
「Slackのコミュニティーメンバーの中には、当社のプライバシーポリシーをより明確にするよう求めている人もいる」と、Salesforceの広報担当者は「CIO Dive」に対して電子メールで述べた。
「Slackにおける顧客データと生成AIの関係をより明確に説明するために、プライバシーポリシーを更新して、より多くの情報を提供するためのブログを公開した」(Salesforce広報担当者)
AIの導入が拡大するにつれて、ユーザーはベンダーが自分のデータに対してどのようなアクセス権や所有権を持っているのかをより注意深く見るようになっている。
アプリ開発スタートアップOnymos創業者のシバ・ネイサン氏(CEO)は「企業がユーザーデータを使ってできると主張していることと実際にできることは、大きく異なる可能性がある」と指摘し、電子メールで次のように述べた。
「SaaSモデルはAIブームの前からデータセキュリティとプライバシー上の課題を抱えていたが、今後もっと大きな課題となるだろう」(ネイサン氏)
2023年8月、Zoomはポリシーの文言と顧客データの使用に関して批判が高まり、同様の状況に陥った(注4)。同社はAIトレーニングから特定のデータを除外するよう文言を更新したが、一連の出来事はデータ保護に関するより広範な議論が広がるきっかけとなった。
組織内でAIツールの導入を計画する際には、契約書の細かい内容を読み込むことが極めて重要だ(注5)。ポリシーが不明確な場合、CIO(最高情報責任者)や調達チームはベンダーの主張に反論し、証拠を求める権限を持つべきだろう(注6)。
(注1)機械学習と AI の使用における Slack の顧客データ保護方法(Slack)
(注2)AI: To Generate or Not to Generate? Research Reveals the Divide(Alteryx)
(注3)Zoom’s AI terms overhaul set the stage for broader data use scrutiny(CIO Dive)
(注4)Zoom emphasizes customer consent as critics question AI service terms(CIO Dive)
(注5)How CIOs can overcome ‘AI-washing’ while vetting vendors(CIO Dive)
(注6)How CIOs can respond to AI vendor red flags(CIO Dive)
Copyright © ITmedia, Inc. All Rights Reserved.