Fundamos Anthropic para poner la seguridad a la vanguardia de la investigación en IA y los productos de IA. Nuestra investigación informa nuestros productos comerciales, y nuestros modelos son algunos de los más confiablemente seguros y resistentes al abuso disponibles hoy en día. Estamos trabajando para mejorar nuestros filtros de seguridad basándonos en los comentarios de los usuarios, y esperamos que nuestros clientes comerciales nos hagan responsables cuando nuestras funciones de seguridad estén fallando.
Pero creemos que la seguridad es una responsabilidad compartida. Nuestras funciones no son infalibles, y los socios comprometidos son una segunda línea de defensa. Dependiendo de su caso de uso, los pasos de moderación se verán diferentes, pero aquí hay algunas recomendaciones de seguridad adicionales:
Use Claude como filtro de moderación de contenido para identificar y prevenir violaciones.
Para productos de cara al público, revele a sus usuarios que están interactuando con un sistema de IA.
Para información sensible y toma de decisiones, haga que un profesional calificado revise el contenido antes de su difusión a los consumidores.
Le animamos a enviarnos comentarios o propuestas específicas a [email protected]. Para socios comerciales existentes, recomendaríamos unirse a nuestro servidor de Discord e intercambiar ideas con otros desarrolladores también.
