跳转到主要内容

我计划使用 Claude API 推出一款产品。我应该采取哪些步骤来确保我没有违反 Anthropic 的使用政策?

更新于今天

我们创立 Anthropic 是为了将安全性放在 AI 研究和 AI 产品的前沿。我们的研究为我们的商业产品提供信息支持,我们的模型是目前最可靠、最安全且最能抵抗滥用的模型之一。我们正在根据用户反馈改进我们的安全过滤器 - 我们期望我们的商业客户在我们的安全功能失效时对我们进行监督。

但我们相信安全是一项共同的责任。我们的功能并非万无一失,合作伙伴是第二道防线。根据您的使用场景,审核步骤会有所不同,但以下是一些额外的安全建议:

  • 使用 Claude 作为内容审核过滤器来识别和防止违规行为。

  • 对于面向外部的产品,向用户披露他们正在与 AI 系统交互。

  • 对于敏感信息和决策制定,在向消费者传播内容之前,应由合格的专业人士审查内容。

我们鼓励您向我们发送反馈或具体建议至 [email protected]。对于现有的商业合作伙伴,我们建议加入我们的 Discord 服务器并与其他开发者交流想法。

这是否解答了您的问题?