了解我們關於使用 Claude 輸出進行模型訓練和開發的政策
當您使用 Claude 時,您擁有從您的輸入生成的輸出。但是,使用這些輸出來訓練 AI 模型存在重要限制,這在 AI 行業中是標準做法。我們禁止客戶在未獲得我們書面許可的情況下使用我們的服務來訓練或開發 AI 模型。本文解釋了允許的用途、禁止的用途以及這些政策存在的原因。
我們限制模型訓練的原因
Anthropic 在使 Claude 安全、有幫助和無害方面投入了大量資源。我們進行嚴格的發布前測試、實施多層安全措施,並持續監控我們模型的行為。當輸出在沒有我們監督的情況下用於訓練新模型時,會出現額外的風險。安全控制可能會丟失——在 Claude 輸出上訓練的模型將不具有我們的安全措施,可能導致有害或危險的 AI 系統。我們也無法看到部署情況,這意味著我們無法監控這些蒸餾模型的使用方式或防止濫用。
當客戶使用 Claude 生成輸出,然後用於訓練競爭模型時,他們實質上是在使用我們的基礎設施和投資來構建與我們服務的直接競爭對手。與其他軟體和服務提供商一樣,我們期望我們的服務不會被用於破壞我們的產品供應。
您可以對輸出進行的操作
您可以使用 Claude 的輸出來訓練不與 Anthropic 自有模型競爭的模型。這包括創建專門的分類器和工具,例如:
情感分析工具
內容分類系統
摘要工具
信息提取工具
語義搜索工具
異常檢測工具
輸出也可以集成到您的應用程式中,以支持您產品中的功能、為您的客戶生成內容、分析和結構化您的數據,或改進內部工作流程和生產力。
禁止的內容
我們的條款不允許使用輸出來訓練與 Anthropic 自有模型競爭的模型。支持第三方進行相同操作也違反了我們的條款。
禁止的用途包括:
通用聊天機器人
為開放式文本生成設計的模型
使用輸出作為模型的訓練目標
逆向工程訓練方法
