目 录CONTENT

文章目录

Anthropic 宣布将使用 Claude 聊天记录训练模型,用户如何选择退出?

青云TOP
2025-10-04 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/anthropic-using-claude-chats-for-training-how-to-opt-out/

原文作者:Reece Rogers / WIRED


Anthropic 宣布新政:Claude 聊天记录将用于模型训练,教你如何一键退出!

Anthropic 正在改变其政策,准备将用户与 Claude 聊天机器人的对话作为训练其大型语言模型(LLM)的数据来源——除非用户明确选择退出。

在此之前,该公司并未将用户聊天记录用于模型训练。但随着 Anthropic 隐私政策在 10 月 8 日更新,用户将需要主动选择退出,否则他们的新聊天记录和代码任务都将被用于训练未来的 Anthropic 模型。

Anthropic Will Use Claude Chats for Training Data. Heres How to Opt Out 图片来源: Wired Staff; Getty Images

为什么要更改政策?数据驱动模型优化

Anthropic 在其博客中解释了政策变更的原因:“所有大型语言模型,如 Claude,都是使用大量数据训练出来的。来自真实世界互动的 [数据] 提供了关于哪些回复对用户最有价值和最准确的宝贵见解。” 随着更多用户数据被输入到 LLM 的“搅拌机”中,Anthropic 的开发人员希望随着时间的推移,能够构建出更优秀的聊天机器人版本。

这项变更原定于 9 月 28 日生效,后被推迟。“我们希望给予用户更多时间来审视这个选择,并确保我们能顺利完成技术过渡,”Anthropic 的发言人 Gabby Curtis 在邮件中告诉 WIRED。

如何操作:退出数据训练

新用户在注册过程中就需要对聊天数据的使用做出决定。现有 Claude 用户可能已经看到了一个弹窗,概述了 Anthropic 政策的变化。

弹窗内容大致是:“允许使用您的聊天和编码会话来训练和改进 Anthropic AI 模型。” 默认情况下,提供数据给 Anthropic 进行 Claude 训练的选项是自动开启的。因此,那些在没有取消勾选该选项的情况下接受更新的用户,即被视为默认同意了新的训练政策。

所有用户都可以在“隐私设置”(Privacy Settings)下切换对话训练的开关。 在标有“帮助改进 Claude”(Help improve Claude)的设置项下,请确保开关处于关闭(向左)状态,如果你不希望你的 Claude 聊天记录用于训练 Anthropic 的新模型。

如果用户没有选择退出模型训练,那么新的训练政策将涵盖所有新的和重新访问的聊天。这意味着 Anthropic 不会自动使用你的整个聊天历史记录来训练下一代模型,除非你回到存档中重新开启一个旧的对话串。一旦该旧对话被重新激活,它就可能成为未来训练的“合法目标”。

数据保留期限的变化

新的隐私政策也带来了数据保留政策的扩大,针对的是那些未选择退出的用户。对于那些允许模型训练其对话内容的用户,Anthropic 将数据保留时间从大多数情况下的 30 天增加到了更长的五年。而选择退出的用户仍将遵循 30 天的保留政策。

Anthropic 的条款变更适用于免费用户和付费用户。通过政府或教育计划许可的商业用户不受此更改的影响,他们的对话内容不会被用作公司模型训练的一部分。

开发者和隐私考量

Claude 是一些软件开发人员青睐的 AI 工具,他们看重其作为编程助手的能力。由于隐私政策的更新也涵盖了编码项目和聊天记录,Anthropic 可能会借此机会收集大量的编码信息用于训练目的。

在 Anthropic 更新隐私政策之前,Claude 是少数几家未默认将对话用于 LLM 训练的主流聊天机器人之一。相比之下,OpenAI 的 ChatGPT 和 Google 的 Gemini 个人账户的默认设置都包含模型训练的可能性,除非用户选择退出。

关于更多服务的 AI 训练退出指南,请参阅 WIRED 的完整指南。虽然选择退出数据训练对个人隐私,尤其是在处理聊天记录或其他一对一互动时,是一种保护,但请记住,你在网上公开发布的任何内容,无论是社交媒体帖子还是餐厅评论,很可能都会被某个初创公司抓取作为其下一个巨型 AI 模型的训练材料。


🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

0

评论区