Comprendre nos politiques concernant l'utilisation des résultats de Claude pour l'entraînement et le développement de modèles
Lorsque vous utilisez Claude, vous êtes propriétaire des résultats générés à partir de vos données d'entrée. Cependant, il existe des restrictions importantes concernant l'utilisation de ces résultats pour entraîner des modèles d'IA, ce qui constitue une pratique standard dans l'industrie de l'IA. Nous interdisons aux clients d'utiliser nos services pour entraîner ou développer des modèles d'IA sans notre autorisation écrite. Cet article explique quelles utilisations sont autorisées, quelles utilisations sont interdites et pourquoi ces politiques existent.
Pourquoi nous restreignons l'entraînement de modèles
Anthropic investit considérablement pour rendre Claude sûr, utile et inoffensif. Nous effectuons des tests rigoureux avant la mise en production, mettons en œuvre plusieurs couches de sécurité et surveillons en permanence le comportement de nos modèles. Lorsque les résultats sont utilisés pour entraîner de nouveaux modèles sans notre supervision, des risques supplémentaires émergent. Les contrôles de sécurité peuvent être perdus – les modèles entraînés sur les résultats de Claude n'auront pas nos mesures de sécurité, ce qui pourrait conduire à des systèmes d'IA dangereux ou nuisibles. Nous n'avons également aucune visibilité sur le déploiement, ce qui signifie que nous ne pouvons pas surveiller comment ces modèles distillés sont utilisés ni empêcher leur mauvaise utilisation.
Lorsque les clients utilisent Claude pour générer des résultats qui servent ensuite à entraîner des modèles concurrents, ils utilisent essentiellement notre infrastructure et notre investissement pour créer des concurrents directs à notre service. Comme d'autres fournisseurs de logiciels et de services, nous nous attendons à ce que nos services ne soient pas utilisés pour nuire à nos offres de produits.
Ce que vous pouvez faire avec les résultats
Vous pouvez utiliser les résultats de Claude pour entraîner des modèles qui ne sont pas en concurrence avec les propres modèles d'Anthropic. Cela inclut la création de classificateurs spécialisés et d'outils tels que :
Outils d'analyse de sentiment
Systèmes de catégorisation de contenu
Outils de résumé
Outils d'extraction d'informations
Outils de recherche sémantique
Outils de détection d'anomalies
Les résultats peuvent également être intégrés dans vos applications pour alimenter des fonctionnalités au sein de vos produits, générer du contenu pour vos clients, analyser et structurer vos données, ou améliorer les flux de travail internes et la productivité.
Ce qui est interdit
Nos conditions générales n'autorisent pas l'utilisation des résultats pour entraîner des modèles qui sont en concurrence avec ceux d'Anthropic. Il constitue également une violation de nos conditions générales de soutenir la tentative d'un tiers de faire de même.
Les utilisations interdites incluent :
Chatbots à usage général
Modèles conçus pour la génération de texte libre
Utilisation des résultats comme cibles d'entraînement pour des modèles
Rétro-ingénierie des méthodes d'entraînement
