Que vous commenciez tout juste à mettre en place des mesures de protection pour votre déploiement d'API Claude, ou que votre déploiement soit déjà en cours d'exécution, voici quelques stratégies à considérer lors de la création de votre propre programme de sécurité de l'IA. Ces suggestions sont conçues pour vous aider à respecter nos Conditions de service et notre Politique d'utilisation, qui interdisent certains usages de Claude. Le non-respect des Conditions et de la Politique d'utilisation peut entraîner la suspension ou la résiliation de votre accès aux services.
Mesures de protection de base
- Conservez les identifiants associés à chaque appel d'API, afin que si vous ayez besoin de localiser un contenu spécifique violant les règles, vous ayez la capacité de le trouver dans vos systèmes. 
- Envisagez d'attribuer des identifiants aux utilisateurs, ce qui peut vous aider à suivre les individus spécifiques qui violent la Politique d'utilisation d'Anthropic, permettant une action plus ciblée en cas d'abus. - Le choix de transmettre des identifiants à Anthropic via l'API vous appartient. Cependant, s'ils sont fournis, nous pouvons identifier les violations de manière plus précise. Pour aider à protéger la vie privée des utilisateurs finaux, tous les identifiants transmis doivent être hachés de manière cryptographique. 
 
- Envisagez d'exiger que les clients créent un compte sur votre plateforme avant d'utiliser Claude 
- Assurez-vous que vos clients comprennent les usages autorisés 
- Avertissez, limitez le débit ou suspendez les utilisateurs qui violent à plusieurs reprises les Conditions de service et la Politique d'utilisation d'Anthropic 
Mesures de protection intermédiaires
- Créez des cadres de personnalisation qui limitent les interactions des utilisateurs finaux avec Claude à un ensemble limité d'invites ou permettent uniquement à Claude d'examiner un corpus de connaissances spécifique que vous possédez déjà, ce qui réduira la capacité des utilisateurs à adopter un comportement violant les règles. 
- Activez des filtres de sécurité supplémentaires - outils de modération en temps réel gratuits créés par Anthropic pour aider à détecter les invites potentiellement nuisibles et gérer les actions en temps réel pour réduire les risques - Pour plus d'informations sur la façon d'activer nos filtres de sécurité supplémentaires, veuillez contacter [email protected]. 
 
- Pour les clients Bedrock : - Activez votre compartiment S3 privé afin de stocker les invites et les complétions pour votre propre évaluation 
 
Mesures de protection avancées
- Exécutez une API de modération sur toutes les invites des utilisateurs finaux avant qu'elles ne soient envoyées à Claude pour vous assurer qu'elles ne sont pas nuisibles 
Mesures de protection complètes
- Mettez en place un système interne d'examen humain pour signaler les invites marquées par Claude (utilisé pour la modération de contenu) ou une API de modération comme nuisibles afin que vous puissiez intervenir pour restreindre ou supprimer les utilisateurs ayant des taux de violation élevés. 
