Ir para conteúdo principal

Estou planejando lançar um produto usando a Claude API. Quais passos devo tomar para garantir que não estou violando a Política de Uso da Anthropic?

Atualizado hoje

Fundamos a Anthropic para colocar a segurança na fronteira da pesquisa e dos produtos de IA. Nossa pesquisa informa nossos produtos comerciais, e nossos modelos estão entre os mais seguros e resistentes a abuso disponíveis atualmente. Estamos trabalhando para melhorar nossos filtros de segurança com base no feedback dos usuários - e esperamos que nossos clientes comerciais nos responsabilizem quando nossos recursos de segurança estiverem falhando.

Mas acreditamos que a segurança é uma responsabilidade compartilhada. Nossos recursos não são à prova de falhas, e parceiros comprometidos são uma segunda linha de defesa. Dependendo do seu caso de uso, as etapas de moderação terão aparências diferentes, mas aqui estão algumas recomendações de segurança adicionais:

  • Use Claude como um filtro de moderação de conteúdo para identificar e prevenir violações.

  • Para produtos voltados para o público externo, divulgue aos seus usuários que eles estão interagindo com um sistema de IA.

  • Para informações sensíveis e tomada de decisão, tenha um profissional qualificado revisando o conteúdo antes da disseminação para consumidores.

Encorajamos você a nos enviar feedback ou propostas específicas para [email protected]. Para parceiros comerciais existentes, recomendamos ingressar em nosso servidor Discord e trocar ideias com outros desenvolvedores também.

Isto respondeu à sua pergunta?