Anthropic 宣布将开始使用用户与 Claude 聊天机器人的对话内容作为其大型语言模型(LLM)的训练数据,除非用户主动选择退出(Opt Out)。
在此次政策变更之前,Anthropic 一直没有将用户对话用于模型训练。然而,随着公司隐私政策在 10 月 8 日更新后,新产生的聊天记录和代码任务默认将成为未来 Claude 模型训练的数据来源。如果你不希望自己的对话被用于此目的,就需要采取行动。
为什么要进行这项变更?
Anthropic 在其博客中解释了政策调整的原因:“像 Claude 这样的所有大型语言模型都是使用大量数据进行训练的。来自真实世界互动的宝贵数据,可以让我们了解哪些回应对用户最有用、最准确。” 通过纳入更多的用户数据,Anthropic 的开发人员希望能够持续改进其聊天机器人的性能。
这项变更原计划于 9 月 28 日生效,但后来推迟了。“我们希望给予用户更多时间来审查这一选择,并确保我们能够平稳地完成技术过渡,”Anthropic 的发言人 Gabby Curtis 通过电子邮件告诉 WIRED。

如何选择退出训练数据使用?
新用户在注册过程中会被要求就其聊天数据的使用做出决定。现有的 Claude 用户可能已经看到一个弹出窗口,说明了 Anthropic 条款的变更。
弹出窗口中显示:“允许使用您的聊天和代码会话来训练和改进 Anthropic AI 模型。” 默认情况下,向 Anthropic 提供数据用于训练 Claude 的开关是自动开启的。因此,那些在没有点击该开关的情况下接受更新的用户,实际上已经默认同意了新的训练政策。
关闭数据训练的步骤:
所有用户都可以在 隐私设置 (Privacy Settings) 中切换会话训练的开启或关闭状态。在标记为 帮助改进 Claude (Help improve Claude) 的设置下,请确保开关处于关闭状态(向左),如果你不希望你的 Claude 聊天记录用于训练 Anthropic 的新模型。
如果用户没有选择退出模型训练,那么变更后的训练政策将适用于所有新的和重新访问的聊天记录。这意味着,除非你回到历史记录中重新激活一个旧的对话线程,否则 Anthropic 不会自动使用你完整的聊天历史来训练其下一代模型。一旦旧的对话被重新打开并进行互动,该对话也将成为未来训练的潜在数据。
数据保留期限变化:
新的隐私政策还伴随着对未选择退出的用户的数据保留政策的扩展。对于允许模型训练的用户,Anthropic 将数据保留时间从大多数情况下的 30 天,大幅延长至最长五年。而选择退出的用户,其数据仍将遵循 30 天的保留政策。
Anthropic 的这项条款变更适用于免费用户和付费用户。通过政府或教育计划授权的商业用户不受此变更影响,他们的对话不会被用于公司的模型训练。
开发者和行业背景:
Claude 是许多软件开发人员喜爱的 AI 工具,他们看重其作为代码助手的能力。由于隐私政策的更新涵盖了代码项目和聊天记录,Anthropic 可能会通过这次变更收集到大量的编码信息用于训练目的。
在 Anthropic 更新隐私政策之前,Claude 是少数几家未默认使用对话进行 LLM 训练的主要聊天机器人之一。相比之下,OpenAI 的 ChatGPT 和 Google 的 Gemini 对个人账户的默认设置都包含了模型训练的可能性,除非用户选择退出。
请参阅 WIRED 提供的 AI 训练选择退出指南,了解更多可以要求生成式 AI 不再使用用户数据的服务。虽然选择退出数据训练对个人隐私来说是一种保护,尤其是在处理聊天对话或其他一对一互动时,但值得注意的是,你在网上公开发布的任何内容,从社交媒体帖子到餐厅评论,都很可能被某些初创公司抓取,作为训练其下一代大型 AI 模型的材料。
更新:2025年10月1日,美国东部时间下午 6:30:澄清了哪些用户将受更长的保留期限政策约束。
评论区