Compreendendo nossas políticas sobre o uso de Outputs do Claude para treinamento e desenvolvimento de modelos
Quando você usa Claude, você é proprietário dos Outputs gerados a partir de seus Inputs. No entanto, existem restrições importantes sobre o uso desses Outputs para treinar modelos de IA, que são práticas padrão em toda a indústria de IA. Proibimos clientes de usar nossos serviços para treinar ou desenvolver modelos de IA sem nossa permissão escrita. Este artigo explica quais usos são permitidos, quais usos são proibidos e por que essas políticas existem.
Por que restringimos o treinamento de modelos
Anthropic investe significativamente em tornar Claude seguro, útil e inofensivo. Realizamos testes rigorosos pré-lançamento, implementamos múltiplas camadas de segurança e monitoramos continuamente o comportamento de nossos modelos. Quando Outputs são usados para treinar novos modelos sem nossa supervisão, riscos adicionais surgem. Os controles de segurança podem ser perdidos – modelos treinados nos Outputs do Claude não terão nossas medidas de segurança, potencialmente levando a sistemas de IA prejudiciais ou perigosos. Também não temos visibilidade sobre a implantação, o que significa que não podemos monitorar como esses modelos destilados são usados ou prevenir abuso.
Quando clientes usam Claude para gerar Outputs que depois treinam modelos concorrentes, eles estão essencialmente usando nossa infraestrutura e investimento para construir concorrentes diretos de nosso serviço. Como outros provedores de software e serviços, esperamos que nossos serviços não sejam usados para prejudicar nossas ofertas de produtos.
O que você pode fazer com Outputs
Você pode usar os Outputs do Claude para treinar modelos que não competem com os próprios modelos da Anthropic. Isso inclui criar classificadores especializados e ferramentas como:
Ferramentas de análise de sentimento
Sistemas de categorização de conteúdo
Ferramentas de resumo
Ferramentas de extração de informações
Ferramentas de busca semântica
Ferramentas de detecção de anomalias
Os Outputs também podem ser integrados em seus aplicativos para potencializar recursos em seus produtos, gerar conteúdo para seus clientes, analisar e estruturar seus dados, ou melhorar fluxos de trabalho internos e produtividade.
O que é proibido
Nossos Termos não permitem o uso de Outputs para treinar modelos que sejam competitivos com os nossos próprios. Também é uma violação de nossos Termos apoiar a tentativa de um terceiro de fazer o mesmo.
Os usos que são proibidos incluem:
Chatbots de propósito geral
Modelos projetados para geração de texto aberta
Usar Outputs como alvos de treinamento para modelos
Engenharia reversa de métodos de treinamento
