Ir al contenido principal

Estoy planeando lanzar un producto utilizando la Claude API. ¿Qué pasos debo tomar para asegurarme de que no estoy violando la Política de Uso de Anthropic?

Actualizado esta semana

Fundamos Anthropic para poner la seguridad en la frontera de la investigación y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más seguros y resistentes al abuso disponibles hoy en día. Estamos trabajando para mejorar nuestros filtros de seguridad basándonos en la retroalimentación de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad no funcionen correctamente.

Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de tu caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:

  • Usa Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.

  • Para productos orientados al público externo, divulga a tus usuarios que están interactuando con un sistema de IA.

  • Para información sensible y toma de decisiones, haz que un profesional calificado revise el contenido antes de su difusión a los consumidores.

Te animamos a que nos envíes retroalimentación o propuestas específicas a [email protected]. Para socios comerciales existentes, te recomendamos unirte a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.

¿Ha quedado contestada tu pregunta?