共计 1239 个字符,预计需要花费 4 分钟才能阅读完成。
IT之家于8月29日报道,Anthropic宣布其将开始利用用户数据来训练人工智能模型。这些数据包括新的聊天记录和代码编写对话,用户如不愿参与,需主动选择退出。此外,该公司还将数据保留政策延长至五年,适用于未选择退出的用户。
根据Anthropic周四发布的博客,所有用户需在9月28日之前做出决定。如果用户点击“接受”,Anthropic将会立即开始使用其数据进行模型训练,并将数据保留长达五年。
这一政策适用于“新启动或重新开启的聊天及代码编写会话”。即便用户同意其数据被用于模型训练,Anthropic仍不会利用未重新开启的历史聊天或代码会话。然而,一旦用户继续使用旧会话,相关数据将会被纳入训练之中。
在公告中,Anthropic表示,此次更新涵盖了Claude的所有用户订阅层级,包括免费版、专业版(Pro)与高级版(Max)。用户在使用Claude Code时同样适用此更新。但需要注意的是,该更新不适用于Anthropic的商业用途层级,例如Claude政府版、企业版和教育版,也不适合通过第三方平台(如亚马逊Bedrock和谷歌云Vertex AI)进行的API调用。
新用户在注册Claude时需要选择偏好设置,而现有用户则会通过弹窗进行选择确认。用户可以选择“暂不设置”按钮延后决定,但必须在9月28日前完成选择。
值得关注的是,许多用户可能未仔细阅读条款内容,便迅速点击“接受”按钮。在弹窗中,用户可看到大号字体的“消费者条款及政策更新”,下方则说明“我们的消费者条款与隐私政策更新将于2025年9月28日生效,您可今日接受更新后的条款”,并有一个显眼的黑色“接受”按钮。

IT之家观察到,在该按钮下方的小字中写着“允许使用您的聊天记录及代码编写会话,用于训练和改进Anthropic AI模型”,并配有一个开启/关闭的切换开关,默认状态为“开启”。显然,尽管用户未仔细阅读条款,许多人仍会直接点击大号的“接受”按钮,而忽略调整该切换开关。
若用户希望退出选择,可以在看到弹窗时将切换开关设置为“关闭”。如果不小心点击了“接受”并希望更改选择,可以进入个人设置(Settings),选择隐私标签页(Privacy),再进入隐私设置(Privacy Settings),最后在“帮助改进Claude”下将开关调至“关闭”。用户随时可以通过隐私设置修改选择,但新的设置仅适用于未来产生的数据,已用于模型训练的数据是无法撤回的。
Anthropic在博客中表示:“为保护用户隐私,我们将采用多种工具和自动化流程对敏感数据进行过滤或模糊处理。我们绝不会将用户数据出售给第三方。”
