Vai al contenuto principale

Strumenti di Salvaguardia API

Aggiornato questa settimana

Che tu stia appena iniziando il processo di configurazione delle misure di sicurezza per il tuo deployment API di Claude, o il tuo deployment sia già in esecuzione, ecco alcune strategie da considerare quando costruisci il tuo programma di sicurezza dell'IA. Questi suggerimenti sono progettati per aiutarti a conformarti ai nostri Termini di Servizio e alla Politica di Utilizzo, che vietano determinati usi di Claude. Il mancato rispetto dei Termini e della Politica di Utilizzo può comportare la sospensione o la terminazione del tuo accesso ai servizi.

Misure di Sicurezza di Base

  • Archivia gli ID collegati a ogni chiamata API, in modo che se hai bisogno di individuare contenuti violativi specifici, tu abbia la capacità di trovarli nei tuoi sistemi.

  • Considera l'assegnazione di ID agli utenti, che può aiutarti a tracciare individui specifici che violano l'AUP di Anthropic, consentendo azioni più mirate in caso di abuso.

    • La scelta di passare gli ID ad Anthropic tramite l'API dipende da te. Tuttavia, se forniti, possiamo individuare le violazioni in modo più preciso. Per aiutare a proteggere la privacy degli utenti finali, gli ID passati dovrebbero essere sottoposti a hash crittografico.

  • Considera di richiedere ai clienti di registrarsi per un account sulla tua piattaforma prima di utilizzare Claude

  • Assicurati che i tuoi clienti comprendano gli usi consentiti

  • Avverti, limita la velocità o sospendi gli utenti che violano ripetutamente i Termini di Servizio e la Politica di Utilizzo di Anthropic

Misure di Sicurezza Intermedie

  • Crea framework di personalizzazione che limitano le interazioni degli utenti finali con Claude a un insieme limitato di prompt o consentono solo a Claude di esaminare un corpus di conoscenze specifico che già possiedi, il che diminuirà la capacità degli utenti di impegnarsi in comportamenti violativi.

  • Abilita filtri di sicurezza aggiuntivi - strumenti di moderazione in tempo reale gratuiti creati da Anthropic per aiutare a rilevare prompt potenzialmente dannosi e gestire azioni in tempo reale per ridurre il danno

    • Per ulteriori informazioni su come abilitare i nostri filtri di sicurezza aggiuntivi, contatta [email protected].

  • Per i Clienti Bedrock:

    • Attiva il tuo bucket S3 privato per archiviare prompt e completamenti per la tua valutazione

Misure di Sicurezza Avanzate

Misure di Sicurezza Comprehensive

  • Configura un sistema interno di revisione umana per contrassegnare i prompt che sono marcati da Claude (utilizzato per la moderazione dei contenuti) o da un'API di moderazione come dannosi, in modo da poter intervenire per limitare o rimuovere gli utenti con alti tassi di violazione.

Hai ricevuto la risposta alla tua domanda?