了解我们关于使用Claude输出进行模型训练和开发的政策
当您使用Claude时,您拥有从您的输入生成的输出。但是,使用这些输出来训练AI模型存在重要限制,这在AI行业中是标准做法。我们禁止客户在未获得我们书面许可的情况下使用我们的服务来训练或开发AI模型。本文解释了允许的用途、禁止的用途以及这些政策存在的原因。
我们为什么限制模型训练
Anthropic在使Claude安全、有帮助和无害方面投入了大量资金。我们进行严格的发布前测试,实施多层安全措施,并持续监控我们模型的行为。当输出在没有我们监督的情况下被用于训练新模型时,会出现额外的风险。安全控制可能会丧失——在Claude输出上训练的模型将不具有我们的安全措施,可能导致有害或危险的AI系统。我们也无法看到部署情况,这意味着我们无法监控这些蒸馏模型的使用方式或防止滥用。
当客户使用Claude生成输出,然后用这些输出训练竞争模型时,他们实际上是在使用我们的基础设施和投资来构建与我们服务的直接竞争对手。与其他软件和服务提供商一样,我们期望我们的服务不会被用于破坏我们的产品。
您可以对输出进行的操作
您可以使用Claude的输出来训练不与Anthropic自有模型竞争的模型。这包括创建专门的分类器和工具,例如:
情感分析工具
内容分类系统
摘要工具
信息提取工具
语义搜索工具
异常检测工具
输出也可以集成到您的应用程序中,以支持您产品中的功能、为您的客户生成内容、分析和结构化您的数据,或改进内部工作流程和生产力。
禁止的用途
我们的条款不允许使用输出来训练与Anthropic自有模型竞争的模型。支持第三方尝试这样做也违反了我们的条款。
禁止的用途包括:
通用聊天机器人
为开放式文本生成设计的模型
使用输出作为模型的训练目标
逆向工程训练方法
