我们创立 Anthropic 是为了将安全性放在 AI 研究和 AI 产品的前沿。我们的研究为我们的商业产品提供信息支持,我们的模型是目前最可靠、最安全且最能抵抗滥用的模型之一。我们正在根据用户反馈改进我们的安全过滤器 - 我们期望我们的商业客户在我们的安全功能失效时对我们进行监督。
但我们相信安全是一项共同的责任。我们的功能并非万无一失,合作伙伴是第二道防线。根据您的使用场景,审核步骤会有所不同,但以下是一些额外的安全建议:
使用 Claude 作为内容审核过滤器来识别和防止违规行为。
对于面向外部的产品,向用户披露他们正在与 AI 系统交互。
对于敏感信息和决策制定,在向消费者传播内容之前,应由合格的专业人士审查内容。
我们鼓励您向我们发送反馈或具体建议至 [email protected]。对于现有的商业合作伙伴,我们建议加入我们的 Discord 服务器并与其他开发者交流想法。
