📢 转载信息
原文链接:https://www.wired.com/story/anthropic-using-claude-chats-for-training-how-to-opt-out/
原文作者:Reece Rogers / WIRED
警惕!Anthropic 启用新政策:您的 Claude 聊天记录或将被用于模型训练,如何设置才能保护隐私?
Anthropic 准备开始将用户与旗下 AI 聊天机器人 Claude 的对话用作其大型语言模型(LLM)的训练数据——除非用户明确选择退出。
在此之前,Anthropic 并未将用户聊天内容用于训练其生成式 AI 模型。然而,随着 10 月 8 日 Anthropic 隐私政策的更新,如果用户不选择退出,他们未来的聊天记录和编码任务将被用于训练 Anthropic 的下一代模型。
Anthropic 在解释政策变更的博客中表示:“所有大型语言模型,如 Claude,都是使用大量数据训练出来的。来自真实世界互动的有价值的见解可以帮助我们了解哪些回复对用户最有帮助和最准确。” 更多的用户数据被投入到 LLM 的‘搅拌机’中,Anthropic 的开发者希望能够持续改进他们的聊天机器人版本。
这项变更原定于 9 月 28 日生效,后被推迟。“我们希望给予用户更多时间来审查这一选择,并确保我们实现平稳的技术过渡,”Anthropic 的发言人 Gabby Curtis 通过电子邮件告诉 WIRED。
如何选择退出数据使用?保护您的隐私设置指南
新用户在注册过程中需要就其聊天数据的使用做出决定。现有的 Claude 用户可能已经看到了一个弹出窗口,概述了 Anthropic 条款的变更。
该提示显示:“允许使用您的聊天和编码会话来训练和改进 Anthropic AI 模型。” 默认情况下,为 Anthropic 提供数据以训练 Claude 的开关是自动开启的。因此,那些在没有点击该开关的情况下接受更新的用户,实际上是默认选择加入(Opt In)了新的训练政策。

所有用户都可以在隐私设置 (Privacy Settings) 中切换对话训练的开关。在标记为帮助改进 Claude (Help improve Claude) 的设置下,如果您不希望您的 Claude 聊天记录用于训练 Anthropic 的新模型,请确保该开关处于关闭状态(即向左侧)。
如果用户未选择退出模型训练,则变更后的训练政策将涵盖所有新的和重新打开的聊天记录。这意味着 Anthropic 不会自动使用您的整个聊天历史记录来训练其下一代模型,除非您返回到存档中重新激活一个旧的会话。交互结束后,该旧聊天记录就变成了未来训练的“游戏范围”。
数据保留期限:退出后的巨大差异
新的隐私政策还带来了 Anthropic 对数据保留政策的扩展,针对那些不选择退出(即允许训练)的用户。对于允许模型训练的用户,Anthropic 将保留用户数据的时间从大多数情况下的 30 天增加到了更长的五年。而选择退出隐私保护的用户,仍将遵循原有的 30 天保留期限政策。
Anthropic 的条款变更适用于免费用户和付费用户。通过政府或教育计划许可的商业用户不受此变更影响,这些用户的对话将不会被用作公司模型训练的一部分。
Claude 是许多软件开发人员喜爱的 AI 工具,他们看重其作为编码助手的能力。由于隐私政策的更新涵盖了编码项目和聊天记录,Anthropic 通过此举可能会收集到大量的编码信息用于训练目的。
在 Anthropic 更新隐私政策之前,Claude 是少数几家未默认使用对话进行 LLM 训练的主流聊天机器人之一。相比之下,OpenAI 的 ChatGPT 和 Google 的 Gemini 的个人账户默认设置都包含模型训练的可能性,除非用户选择退出。
建议您查阅 WIRED 关于AI 训练退出的完整指南,了解更多可以要求生成式 AI 不使用用户数据进行训练的服务。虽然选择退出数据训练对个人隐私是一种保护(尤其是在处理聊天对话或其他一对一互动时),但请记住,您在网上公开发布的任何内容,无论是社交媒体帖子还是餐厅评论,很可能都会被某些初创公司抓取,用作其下一个大型 AI 模型的训练材料。
更新:2025 年 10 月 1 日,美国东部时间下午 6:30:澄清了哪些用户将受到更长的保留政策约束。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
评论区