共计 3314 个字符,预计需要花费 9 分钟才能阅读完成。
编辑:元宇 好困
【新智元导读】最近,Anthropic 对其消费者条款进行了修改,意外引发了网友们的强烈反对,甚至有人把过去的一些事情都翻了出来。为何网友的反应如此激烈?大家或许还记得在 Claude 首次推出时,Anthropic 曾明确表示不会利用用户数据来进行模型训练。如今的变化不仅与其初衷相悖,还揭露了过去一些被用户称为“背叛”的事件。
最近,Anthropic 对其消费者条款的更新遭到了网友的激烈抵制。

在此次条款更新中,Anthropic 改变了以往绝不使用用户数据进行模型训练的承诺,现有用户面临选择:是否允许自己的数据被用于训练。

表面上看,Anthropic 似乎把“选择权”交给了用户,但实际上仅给予了一个月的决定时间。
新的 Claude 用户在注册时必须立即做出选择,而现有用户则需在 9 月 28 日之前作出决定:
- 在 9 月 28 日前选择接受后将立即生效。这些更新仅适用于新的或重新开始的聊天和编程会话。
- 在 9 月 28 日之后,用户必须在模型训练的设置中做出选择,才能继续使用 Claude 服务。
- 若用户选择将数据用于模型训练,该数据的保留时间将延长至 5 年。此外,用户若删除与 Claude 的对话记录,这些记录将不会被用于未来的模型训练。
- 反之,若用户未选择参与模型训练,公司的 30 天数据保留政策依然适用。
- 所有的对话记录和代码将在五年内保存,并用于模型训练
- 在白天悄悄将用户的模型替换为 1.58 bit 的“缩水版”
- Plus 会员在 Claude Code 中无法使用最强大的 Opus 4 模型
- 六周前,Max 套餐的使用限制被悄然减半,用户未获任何通知
- 关于每周的使用限制,始终没有明确的数字公布
- 宣传的套餐数量是 5 倍和 20 倍,实际上提供的量仅为 Plus 套餐的 3 倍和 8 倍而已
- 随意发出 DMCA 通知,导致许多与 Claude Code 相关的代码库被下架,我的一个项目也因此受到了影响
- Windsurf 用户无法访问 Claude 4
- 对 OpenAI API 的访问权限被完全切断
Claude 模型选择新规引发用户热议
此外,此次条款还进行了其他方面的调整:
所谓的消费级用户,涵盖所有使用 Claude 免费版、专业版和 Max 版的用户,包括 Claude Code 的用户。
而使用 Claude Gov、Claude for Work、Claude for Education,或通过 API 接入的商业客户则不受这些条款的影响。
对此,许多网友纷纷表示难以接受,认为这种做法实在过于离谱!

不仅政策调整引发关注,连用户界面的设计也显得相当容易让人陷入困境。
Anthropic 的奇怪举动引发广泛讨论

这种被称为“文字游戏”的现象,早在电脑软件普及时就已引发关注,许多用户对此并不陌生。

而且,Anthropic 的异常行为远不止于此。
一位网友“Ahmad”在推特上列举了 Anthropic 至今为止的一系列令人失望的举动:


用户数据被视为大型企业的“金矿”
在 Anthropic 发布的关于政策更新的博客中,这一变化被描述为用户拥有选择权,声称:
如果用户选择不退出,将有助于提升模型的安全性,从而使得我们检测有害内容的系统更加精准,并降低错误标记无害对话的几率。
行业巨头的数据争夺战:Anthropic 的策略与反思据 Anthropic 所述,接受新政策的用户将会对未来的 Claude 模型产生积极影响。
这将使 Claude 在编码、分析和推理等技能上得到显著提升,最终使所有用户享受到更卓越的模型体验。
然而,表面上的承诺背后,事情的真相并不如此简单。

从整个行业来看,Anthropic 的消费者条款调整并非个例。
实际上,只有在获取了更多真实用户数据之后,大模型才能获得真正的智能。因此,各大模型公司都在不断寻找方法,争取用户数据以优化其模型。
例如,谷歌最近也进行了类似的改动,将“Gemini Apps Activity”更名为“Keep Activity”。谷歌表示,当该设置开启时,自 9 月 2 日起,用户上传的一部分样本将被用于“提升谷歌服务的整体质量”。

与谷歌、OpenAI 等其他大型模型公司类似,Anthropic 对数据的需求明显高于维持用户品牌形象的渴望。
通过获取数百万次 Claude 用户的交互数据,Anthropic 将能够从真实的编程环境中收集更多语料,这将增强其大模型与 OpenAI、谷歌等对手相比的竞争优势。
因此,毫不意外的是,Anthropic 此次更新条款的真正意图,或许是为了挖掘用户数据背后的巨大潜力。

Anthropic 的背叛引发广泛不满
过去,Anthropic 吸引用户的主要原因在于其对数据隐私的承诺,表现出对消费者隐私的高度重视。
自 Claude 推出以来,Anthropic 一直坚决声明不使用用户数据进行模型训练。
此前,Anthropic 告知其消费产品的用户,他们的输入和对话内容会在 30 天内自动从系统中删除,除非法律或政策要求保留更长时间,或者输入内容被标记为违规(在这种情况下,数据可能被保存最长两年)。
然而,现在 Anthropic 要求所有新用户和现有用户必须选择是否同意其使用数据进行模型训练。
此外,现有用户还需在一个月内作出决定,同时用户数据的保留期限也延长至五年。

在模型训练过程中,有可能会使用到的用户数据包括:
整个相关的对话记录、个性化内容、用户偏好的风格,以及在使用 Claude for Chrome 时所收集的信息。
不过,这些数据不包括从连接器(如 Google Drive)获取的原始文件,或者来自远程及本地 MCP 服务器的信息,除非这些内容被直接复制到与 Claude 的对话中。

谁将为用户隐私保驾护航?
在这些大型企业悄然改变政策的背后,究竟有谁能为用户的隐私提供保护呢?
这些不断变化的政策使用户感到困惑不已。
而且,这些公司在更新政策时,似乎有意淡化了这一点。

以 Anthropic 最近更新的界面为例。
当现有用户点击政策更新弹窗时,首先映入眼帘的是一行显眼的大字标题——「消费者条款和政策变更」,左侧则是一个显眼的黑色「接受」按钮,下面则有一行小字和一个切换开关,旨在授予训练权限,而这个开关预设为「开启」。
这样的设计引起了广泛的担忧:
许多用户可能在未注意到同意数据共享的情况下,便迅速点击了「接受」。
Anthropic 的政策变更似乎也反映了整个行业在数据政策上的普遍趋势。
在观察国际 AI 行业时,我们发现像 Anthropic、OpenAI 和谷歌等大型企业,因其数据保留政策而受到越来越严格的审视。
例如,最近 OpenAI 为了应对《纽约时报》的版权诉讼,首次承认自 5 月中旬以来,悄悄保存了一些用户已删除及临时聊天记录。
事件曝光后,网络上的反响相当震惊:
难道那些被删除的 ChatGPT 聊天记录,全都被你保存下来,等待法官来查吗?
回到 Anthropic 此次条款变更的事件,这反映了公众对 AI 隐私问题日益增长的关注与忧虑。
用户数据:大模型竞争中的隐私保护挑战
在当今大模型的竞争中,用户数据的重要性愈加突显。与此同时,如何在维护模型的竞争力的基础上,妥善保护用户的隐私信息,已成为每个大模型公司都必须面对的重大课题。
参考资料:
https://www.zdnet.com/article/anthropic-will-start-training-claude-on-user-data-but-you-dont-have-to-share-yours/
https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
https://www.businessinsider.com/anthropic-uses-chats-train-claude-opt-out-data-privacy-2025-8

