Passer au contenu principal

Puis-je utiliser mes Outputs pour entraîner un modèle d'IA ?

Mis à jour hier

Comprendre nos politiques concernant l'utilisation des Outputs de Claude pour l'entraînement et le développement de modèles

Lorsque vous utilisez Claude, vous êtes propriétaire des Outputs générés à partir de vos Inputs. Cependant, il existe des restrictions importantes concernant l'utilisation de ces Outputs pour entraîner des modèles d'IA, ce qui est une pratique standard dans l'industrie de l'IA. Nous interdisons aux clients d'utiliser nos services pour entraîner ou développer des modèles d'IA sans notre permission écrite. Cet article explique quels usages sont autorisés, quels usages sont interdits, et pourquoi ces politiques existent.

Pourquoi nous restreignons l'entraînement de modèles

Anthropic investit considérablement pour rendre Claude sûr, utile et inoffensif. Nous menons des tests rigoureux avant la mise en production, implémentons plusieurs couches de sécurité, et surveillons continuellement le comportement de nos modèles. Lorsque les Outputs sont utilisés pour entraîner de nouveaux modèles sans notre supervision, des risques supplémentaires émergent. Les contrôles de sécurité peuvent être perdus – les modèles entraînés sur les Outputs de Claude n'auront pas nos mesures de sécurité, ce qui pourrait conduire à des systèmes d'IA nuisibles ou dangereux. Nous n'avons également aucune visibilité sur le déploiement, ce qui signifie que nous ne pouvons pas surveiller comment ces modèles distillés sont utilisés ou prévenir les abus.

Lorsque les clients utilisent Claude pour générer des Outputs qui entraînent ensuite des modèles concurrents, ils utilisent essentiellement notre infrastructure et notre investissement pour construire des concurrents directs de notre service. Comme d'autres fournisseurs de logiciels et de services, nous nous attendons à ce que nos services ne soient pas utilisés pour compromettre nos offres de produits.

Ce que vous pouvez faire avec les Outputs

Vous pouvez utiliser les Outputs de Claude pour entraîner des modèles qui ne sont pas en concurrence avec les propres modèles d'Anthropic. Cela inclut la création de classificateurs spécialisés et d'outils tels que :

  • Outils d'analyse des sentiments

  • Systèmes de catégorisation de contenu

  • Outils de résumé

  • Outils d'extraction d'informations

  • Outils de recherche sémantique

  • Outils de détection d'anomalies

Les Outputs peuvent également être intégrés dans vos applications pour alimenter des fonctionnalités au sein de vos produits, générer du contenu pour vos clients, analyser et structurer vos données, ou améliorer les flux de travail internes et la productivité.

Ce qui est interdit

Nos Conditions d'utilisation n'autorisent pas l'utilisation des Outputs pour entraîner des modèles qui sont en concurrence avec les nôtres. C'est également une violation de nos Conditions d'utilisation de soutenir la tentative d'un tiers de faire la même chose.

Les usages qui sont interdits incluent :

  • Chatbots à usage général

  • Modèles conçus pour la génération de texte ouverte

  • Utiliser les Outputs comme cibles d'entraînement pour des modèles

  • Rétro-ingénierie des méthodes d'entraînement

Avez-vous trouvé la réponse à votre question ?