📢 转载信息
原文链接:https://www.wired.com/story/anthropic-using-claude-chats-for-training-how-to-opt-out/
原文作者:Reece Rogers / WIRED
Anthropic公司宣布,将开始利用用户与Claude聊天机器人的对话记录作为其大型语言模型(LLM)的训练数据,除非用户选择退出(Opt Out)。
在此之前,Anthropic并未将用户聊天内容用于模型训练。然而,随着公司隐私政策在10月8日更新,用户的新聊天记录和代码任务如果不主动选择退出,就可能被用于训练未来的Anthropic模型。
为何进行此次政策调整?
Anthropic在其博客文章中解释了这一变化的原因:“像Claude这样的所有大型语言模型都是使用大量数据进行训练的。来自真实世界互动的[数据]为我们提供了关于哪些响应对用户最有用和最准确的宝贵见解。”通过引入更多用户数据,Anthropic的开发者希望随着时间的推移,能打造出更优秀的聊天机器人版本。
此次变更原定于9月28日生效,后被推迟。Anthropic发言人Gabby Curtis在一封电子邮件中告诉WIRED:“我们希望给予用户更多时间来审视这一选择,并确保我们能实现平稳的技术过渡。”
如何选择退出数据训练
新用户在注册过程中会被要求对聊天数据的使用做出决定。现有的Claude用户可能已经看到一个弹窗,说明了Anthropic条款的变更。
弹窗内容大意是:“允许使用您的聊天和代码会话来训练和改进Anthropic AI模型。” 默认情况下,提供数据以训练Claude的开关是自动开启的。因此,那些在没有点击该开关的情况下接受更新的用户,将被视为同意新的训练政策。
所有用户都可以在隐私设置 (Privacy Settings) 中切换对话训练的开启或关闭状态。在标记为帮助改进 Claude (Help improve Claude) 的设置下,如果您不希望您的Claude聊天记录用于训练Anthropic的新模型,请确保开关处于关闭(向左)状态。

Photo-Illustration: Wired Staff; Getty Images
如果用户未选择退出模型训练,则新的训练政策将涵盖所有新启动的聊天以及重新访问的旧聊天。这意味着Anthropic不会自动训练其下一代模型使用您的整个聊天历史记录,除非您返回存档中重新激活一个旧会话。一旦互动发生,该旧聊天就成为了未来训练的“公平游戏”。
数据保留期限也随之延长
新的隐私政策还伴随着Anthropic数据保留政策的扩展,适用于那些未选择退出使用的用户:
- 对于允许模型训练的用户,Anthropic将数据保留时间从大多数情况下的30天延长到了更长的五年。
- 选择退出的用户仍将遵循30天的保留政策。
Anthropic的这一条款变更适用于免费用户和付费用户。通过政府或教育计划获得许可的商业用户不受此更改的影响,其对话内容不会被用作公司模型训练的一部分。
对开发者的影响
Claude是许多软件开发人员青睐的AI工具之一,他们看重其作为代码助手的能力。由于隐私政策的更新同时涵盖了代码项目和聊天记录,Anthropic可能会借此收集大量编码信息用于训练目的。
在Anthropic更新隐私政策之前,Claude是少数几家没有默认将对话用于LLM训练的主流聊天机器人之一。相比之下,OpenAI的ChatGPT和Google的Gemini的个人账户默认设置都包含了模型训练的可能性,除非用户选择退出。
您可以查阅WIRED的完整指南,了解如何为更多服务请求生成式AI不要使用用户数据进行训练。虽然选择退出数据训练对个人隐私来说是个福音,尤其是在处理聊天对话或其他一对一互动时,但需要记住的是,您在网上公开发布的任何内容——从社交媒体帖子到餐厅评论——很可能会被某些初创公司抓取作为其下一个大型AI模型的训练材料。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
评论区