Che tu stia appena iniziando il processo di configurazione delle misure di sicurezza per la tua implementazione API di Claude, o che la tua implementazione sia già operativa, ecco alcune strategie da considerare quando costruisci il tuo programma di sicurezza AI. Questi suggerimenti sono progettati per aiutarti a rispettare i nostri Termini di Servizio e la Politica di Utilizzo, che vietano determinati usi di Claude. La mancata conformità ai Termini e alla Politica di Utilizzo può comportare la sospensione o la cessazione del tuo accesso ai servizi.
Misure di Sicurezza di Base
Memorizza gli ID collegati a ciascuna chiamata API, in modo che se hai bisogno di individuare contenuti specifici che violano le regole, tu abbia la possibilità di trovarli nei tuoi sistemi.
Considera di assegnare ID agli utenti, il che può aiutarti a tracciare individui specifici che violano l'AUP di Anthropic, consentendo azioni più mirate in casi di uso improprio.
La scelta di passare gli ID ad Anthropic attraverso l'API spetta a te. Tuttavia, se forniti, possiamo individuare le violazioni con maggiore precisione. Per aiutare a proteggere la privacy degli utenti finali, qualsiasi ID passato dovrebbe essere crittograficamente sottoposto a hash.
Considera di richiedere ai clienti di registrarsi per un account sulla tua piattaforma prima di utilizzare Claude
Assicurati che i tuoi clienti comprendano gli usi consentiti
Avvisa, limita o sospendi gli utenti che violano ripetutamente i Termini di Servizio e la Politica di Utilizzo di Anthropic
Misure di Sicurezza Intermedie
Crea framework di personalizzazione che limitino le interazioni degli utenti finali con Claude a un insieme limitato di prompt o che consentano a Claude di esaminare solo un corpus di conoscenze specifico che già possiedi, il che diminuirà la capacità degli utenti di impegnarsi in comportamenti che violano le regole.
Abilita filtri di sicurezza aggiuntivi - strumenti di moderazione in tempo reale gratuiti creati da Anthropic per aiutare a rilevare prompt potenzialmente dannosi e gestire azioni in tempo reale per ridurre i danni
Per ulteriori informazioni su come abilitare i nostri filtri di sicurezza aggiuntivi, contatta [email protected].
Per i Clienti Bedrock:
Attiva il tuo bucket S3 privato per memorizzare prompt e completamenti per la tua valutazione
Misure di Sicurezza Avanzate
Esegui un'API di moderazione su tutti i prompt degli utenti finali prima che vengano inviati a Claude per assicurarti che non siano dannosi
Misure di Sicurezza Complete
Configura un sistema interno di revisione umana per segnalare i prompt che sono contrassegnati da Claude (utilizzato per la moderazione dei contenuti) o da un'API di moderazione come dannosi, in modo da poter intervenire per limitare o rimuovere gli utenti con alti tassi di violazione.
