Entender nuestras políticas sobre el uso de los Outputs de Claude para el entrenamiento y desarrollo de modelos
Cuando usas Claude, eres propietario de los Outputs generados a partir de tus Inputs. Sin embargo, existen restricciones importantes sobre el uso de estos Outputs para entrenar modelos de IA, que son práctica estándar en toda la industria de IA. Prohibimos que los clientes usen nuestros servicios para entrenar o desarrollar modelos de IA sin nuestro permiso escrito. Este artículo explica qué usos están permitidos, qué usos están prohibidos y por qué existen estas políticas.
Por qué restringimos el entrenamiento de modelos
Anthropic invierte significativamente en hacer que Claude sea seguro, útil e inofensivo. Realizamos pruebas rigurosas previas al lanzamiento, implementamos múltiples capas de seguridad y monitoreamos continuamente el comportamiento de nuestros modelos. Cuando los Outputs se usan para entrenar nuevos modelos sin nuestra supervisión, surgen riesgos adicionales. Los controles de seguridad pueden perderse – los modelos entrenados con los Outputs de Claude no tendrán nuestras medidas de seguridad, lo que podría llevar a sistemas de IA dañinos o peligrosos. Además, no tenemos visibilidad en el despliegue, lo que significa que no podemos monitorear cómo se usan estos modelos destilados ni prevenir su mal uso.
Cuando los clientes usan Claude para generar Outputs que luego entrenan modelos competidores, esencialmente están usando nuestra infraestructura e inversión para construir competidores directos de nuestro servicio. Como otros proveedores de software y servicios, esperamos que nuestros servicios no se usen para socavar nuestras ofertas de productos.
Qué puedes hacer con los Outputs
Puedes usar los Outputs de Claude para entrenar modelos que no compitan con los propios modelos de Anthropic. Esto incluye crear clasificadores especializados y herramientas tales como:
Herramientas de análisis de sentimiento
Sistemas de categorización de contenido
Herramientas de resumen
Herramientas de extracción de información
Herramientas de búsqueda semántica
Herramientas de detección de anomalías
Los Outputs también pueden integrarse en tus aplicaciones para potenciar características dentro de tus productos, generar contenido para tus clientes, analizar y estructurar tus datos, o mejorar flujos de trabajo internos y productividad.
Qué está prohibido
Nuestros Términos no permiten el uso de Outputs para entrenar modelos que sean competitivos con los propios de Anthropic. También es una violación de nuestros Términos apoyar el intento de un tercero de hacer lo mismo.
Los usos que están prohibidos incluyen:
Chatbots de propósito general
Modelos diseñados para generación de texto abierta
Usar Outputs como objetivos de entrenamiento para modelos
Ingeniería inversa de métodos de entrenamiento
