検索
速報

Anthropic、一般向け「Claude」のAIトレーニングへの個人データ利用をオプトアウト方式に変更

Anthropicは9月28日から、一般向けClaudeのAIトレーニングへのデータ利用を、従来のオプトインからオプトアウトに変更する。ユーザーが拒否しない限り、チャットデータなどが最長5年間保持され、モデル改善に利用される。同社は高性能化と安全性向上が目的と説明した。

Share
Tweet
LINE
Hatena

 米Anthropicは8月28日(現地時間)、一般消費者向けプライバシーポリシーを変更し、これまでオプトインだったユーザーデータのモデルトレーニングでの利用を、オプトアウトにすると発表した。この更新されたプライバシーポリシーは、9月28日に発効する。

 policy

 この変更は、Claude Free、Claude Pro、Maxなどの消費者向け製品、およびこれらのアカウントでClaude Codeを使用しているユーザーが対象だ。Claude for Work(TeamおよびEnterpriseプランを含む)、Anthropic API、Amazon Bedrock、Google CloudのVertex AIなどの商用サービス、Claude Gov、Claude for Educationには適用されない。

 今回のプライバシーポリシー変更の核となるのは、ユーザーのチャットやコーディングセッションをClaudeの改善に使用するかどうかの設定が、オプトイン方式から、ユーザーが設定で明示的に拒否しない限り利用されるオプトアウト方式に切り替わる点だ。新規ユーザーはサインアッププロセス中にこの設定を選択し、既存ユーザーは2025年9月28日までに選択を行う必要がある。この設定は、プライバシー設定を通じていつでも変更できる。設定をオフにすれば、それ以降の新しいチャットやコーディングセッションは将来のモデルトレーニングには使用されなくなるが、すでに開始されたトレーニングや訓練済みのモデルには含まれる可能性がある。

 claude
ログインすると、既に設定変更を促すウィンドウが表示されるようになっている

 また、データ保持期間にも変更がある。ユーザーがチャットやコーディングセッションをClaudeの改善のために使用することを許可した場合、新しいチャットや再開されたチャット、コーディングセッションのデータ保持期間は最長5年間に延長される。一方、モデルトレーニングへのデータ使用を許可しない選択をした場合、チャットデータはバックエンドストレージシステムで最長30日間保持される(トレーニングには利用されない)。

 Anthropicは、これらの変更を行う理由を、より高性能で有用なAIモデルを提供するためとしている。加えて、ユーザーがデータ共有に協力することで、モデルの安全性が向上し、有害なコンテンツを検出するシステムがより正確になり、無害な会話を誤ってフラグ付けする可能性を低減できると説明する。さらに、AIの開発サイクルは長期にわたる(モデル開発に18〜24カ月を要する)ため、トレーニングプロセス全体でデータを一貫して保持することは、モデルの一貫性を高め、アップグレード間の変化をユーザーにとってよりスムーズにするのに役立つという。また、延長されたデータ保持期間は、乱用やスパムといった悪用パターンを特定する分類器の改善にも貢献し、Claudeをすべての人にとって安全に保つことにつながるとしている。

 これらの更新は、新しいチャットや再開されたチャット、コーディングセッションにのみ適用される。既存のユーザーが今すぐ新ポリシーに同意することを選択した場合、更新はすぐにこれらのセッションに適用される。Anthropicはこの変更を、ユーザーのプライバシー保護を維持しつつ、より安全で高性能なAIモデルを開発するための重要なステップとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る