Fundamos Anthropic para poner la seguridad en la frontera de la investigación y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más seguros y resistentes al abuso disponibles hoy en día. Estamos trabajando para mejorar nuestros filtros de seguridad basándonos en la retroalimentación de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras características de seguridad no funcionen correctamente.
Pero creemos que la seguridad es una responsabilidad compartida. Nuestras características no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de tu caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:
Usa Claude como un filtro de moderación de contenido para identificar y prevenir violaciones.
Para productos orientados al público externo, divulga a tus usuarios que están interactuando con un sistema de IA.
Para información sensible y toma de decisiones, haz que un profesional calificado revise el contenido antes de su difusión a los consumidores.
Te animamos a que nos envíes retroalimentación o propuestas específicas a [email protected]. Para socios comerciales existentes, te recomendamos unirte a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.
