Ir al contenido principal

Estoy planeando lanzar un producto usando la API de Claude. ¿Qué pasos debo seguir para asegurarme de que no estoy violando la Política de Uso de Anthropic?

Actualizado esta semana

Fundamos Anthropic para poner la seguridad a la vanguardia de la investigación en IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras funciones de seguridad estén fallando.

Pero creemos que la seguridad es una responsabilidad compartida. Nuestras funciones no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:

  • Use Claude como filtro de moderación de contenido para identificar y prevenir violaciones.

  • Para productos de cara al público, revele a sus usuarios que están interactuando con un sistema de IA.

  • Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de su difusión a los consumidores.

Le animamos a enviarnos comentarios o propuestas específicas a [email protected]. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.

¿Ha quedado contestada tu pregunta?