Fundamos a Anthropic para colocar a segurança na fronteira da pesquisa e dos produtos de IA. Nossa pesquisa informa nossos produtos comerciais, e nossos modelos estão entre os mais seguros e resistentes a abuso disponíveis atualmente. Estamos trabalhando para melhorar nossos filtros de segurança com base no feedback dos usuários - e esperamos que nossos clientes comerciais nos responsabilizem quando nossos recursos de segurança estiverem falhando.
Mas acreditamos que a segurança é uma responsabilidade compartilhada. Nossos recursos não são à prova de falhas, e parceiros comprometidos são uma segunda linha de defesa. Dependendo do seu caso de uso, as etapas de moderação terão aparências diferentes, mas aqui estão algumas recomendações de segurança adicionais:
Use Claude como um filtro de moderação de conteúdo para identificar e prevenir violações.
Para produtos voltados para o público externo, divulgue aos seus usuários que eles estão interagindo com um sistema de IA.
Para informações sensíveis e tomada de decisão, tenha um profissional qualificado revisando o conteúdo antes da disseminação para consumidores.
Encorajamos você a nos enviar feedback ou propostas específicas para [email protected]. Para parceiros comerciais existentes, recomendamos ingressar em nosso servidor Discord e trocar ideias com outros desenvolvedores também.
