Vai al contenuto principale

Strumenti di Salvaguardia API

Aggiornato oltre 2 settimane fa

Che tu stia appena iniziando il processo di configurazione delle misure di sicurezza per il tuo deployment API di Claude, o il tuo deployment sia già in esecuzione, ecco alcune strategie da considerare quando costruisci il tuo programma di sicurezza dell'IA. Questi suggerimenti sono progettati per aiutarti a conformarti ai nostri Termini di Servizio e alla Politica di Utilizzo, che vietano determinati usi di Claude. Il mancato rispetto dei Termini e della Politica di Utilizzo può comportare la sospensione o la terminazione del tuo accesso ai servizi.

Misure di Sicurezza di Base

  • Archivia gli ID collegati a ogni chiamata API, in modo che se hai bisogno di individuare contenuti specifici che violano le norme, tu abbia la capacità di trovarli nei tuoi sistemi.

  • Considera l'assegnazione di ID agli utenti, che può aiutarti a tracciare individui specifici che violano l'AUP di Anthropic, consentendo azioni più mirate in caso di abuso.

    • La scelta di passare gli ID ad Anthropic tramite l'API dipende da te. Tuttavia, se forniti, possiamo individuare le violazioni in modo più preciso. Per aiutare a proteggere la privacy degli utenti finali, gli ID passati dovrebbero essere sottoposti a hash crittografico.

  • Considera di richiedere ai clienti di registrarsi per un account sulla tua piattaforma prima di utilizzare Claude

  • Assicurati che i tuoi clienti comprendano gli usi consentiti

  • Avverti, limita la velocità o sospendi gli utenti che violano ripetutamente i Termini di Servizio e la Politica di Utilizzo di Anthropic

Misure di Sicurezza Intermedie

  • Crea framework di personalizzazione che limitano le interazioni degli utenti finali con Claude a un insieme limitato di prompt o consentono solo a Claude di esaminare un corpus di conoscenze specifico che già possiedi, il che diminuirà la capacità degli utenti di impegnarsi in comportamenti che violano le norme.

  • Abilita filtri di sicurezza aggiuntivi - strumenti di moderazione in tempo reale gratuiti creati da Anthropic per aiutare a rilevare prompt potenzialmente dannosi e gestire azioni in tempo reale per ridurre i danni

    • Per ulteriori informazioni su come abilitare i nostri filtri di sicurezza aggiuntivi, contatta [email protected].

  • Per i clienti di Bedrock:

    • Attiva il tuo bucket S3 privato per archiviare prompt e completamenti per la tua valutazione

Misure di Sicurezza Avanzate

Misure di Sicurezza Comprehensive

  • Configura un sistema interno di revisione umana per contrassegnare i prompt che sono marcati da Claude (utilizzato per la moderazione dei contenuti) o da un'API di moderazione come dannosi, in modo da poter intervenire per limitare o rimuovere gli utenti con alti tassi di violazione.

Hai ricevuto la risposta alla tua domanda?