目 录CONTENT

文章目录

Anthropic宣布将使用Claude聊天记录训练模型:如何选择退出数据使用?

青云TOP
2025-10-04 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/anthropic-using-claude-chats-for-training-how-to-opt-out/

原文作者:Reece Rogers / WIRED


Anthropic公司宣布,将开始利用用户与Claude聊天机器人的对话记录作为其大型语言模型(LLM)的训练数据,除非用户选择退出(Opt Out)。

在此之前,Anthropic并未将用户聊天内容用于模型训练。然而,随着公司隐私政策在10月8日更新,用户的新聊天记录和代码任务如果不主动选择退出,就可能被用于训练未来的Anthropic模型。

为何进行此次政策调整?

Anthropic在其博客文章中解释了这一变化的原因:“像Claude这样的所有大型语言模型都是使用大量数据进行训练的。来自真实世界互动的[数据]为我们提供了关于哪些响应对用户最有用和最准确的宝贵见解。”通过引入更多用户数据,Anthropic的开发者希望随着时间的推移,能打造出更优秀的聊天机器人版本。

此次变更原定于9月28日生效,后被推迟。Anthropic发言人Gabby Curtis在一封电子邮件中告诉WIRED:“我们希望给予用户更多时间来审视这一选择,并确保我们能实现平稳的技术过渡。”

如何选择退出数据训练

新用户在注册过程中会被要求对聊天数据的使用做出决定。现有的Claude用户可能已经看到一个弹窗,说明了Anthropic条款的变更。

弹窗内容大意是:“允许使用您的聊天和代码会话来训练和改进Anthropic AI模型。” 默认情况下,提供数据以训练Claude的开关是自动开启的。因此,那些在没有点击该开关的情况下接受更新的用户,将被视为同意新的训练政策。

所有用户都可以在隐私设置 (Privacy Settings) 中切换对话训练的开启或关闭状态。在标记为帮助改进 Claude (Help improve Claude) 的设置下,如果您不希望您的Claude聊天记录用于训练Anthropic的新模型,请确保开关处于关闭(向左)状态。

Anthropic Will Use Claude Chats for Training Data. Heres How to Opt Out

Photo-Illustration: Wired Staff; Getty Images

如果用户未选择退出模型训练,则新的训练政策将涵盖所有新启动的聊天以及重新访问的旧聊天。这意味着Anthropic不会自动训练其下一代模型使用您的整个聊天历史记录,除非您返回存档中重新激活一个旧会话。一旦互动发生,该旧聊天就成为了未来训练的“公平游戏”。

数据保留期限也随之延长

新的隐私政策还伴随着Anthropic数据保留政策的扩展,适用于那些未选择退出使用的用户:

  • 对于允许模型训练的用户,Anthropic将数据保留时间从大多数情况下的30天延长到了更长的五年
  • 选择退出的用户仍将遵循30天的保留政策。

Anthropic的这一条款变更适用于免费用户和付费用户。通过政府或教育计划获得许可的商业用户不受此更改的影响,其对话内容不会被用作公司模型训练的一部分。

对开发者的影响

Claude是许多软件开发人员青睐的AI工具之一,他们看重其作为代码助手的能力。由于隐私政策的更新同时涵盖了代码项目和聊天记录,Anthropic可能会借此收集大量编码信息用于训练目的。

在Anthropic更新隐私政策之前,Claude是少数几家没有默认将对话用于LLM训练的主流聊天机器人之一。相比之下,OpenAI的ChatGPTGoogle的Gemini的个人账户默认设置都包含了模型训练的可能性,除非用户选择退出。

您可以查阅WIRED的完整指南,了解如何为更多服务请求生成式AI不要使用用户数据进行训练。虽然选择退出数据训练对个人隐私来说是个福音,尤其是在处理聊天对话或其他一对一互动时,但需要记住的是,您在网上公开发布的任何内容——从社交媒体帖子到餐厅评论——很可能会被某些初创公司抓取作为其下一个大型AI模型的训练材料。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

0

评论区