Vai al contenuto principale

Strumenti di Protezione API

Aggiornato questa settimana

Che tu stia appena iniziando il processo di configurazione delle misure di sicurezza per la tua implementazione API di Claude, o che la tua implementazione sia già operativa, ecco alcune strategie da considerare quando costruisci il tuo programma di sicurezza AI. Questi suggerimenti sono progettati per aiutarti a rispettare i nostri Termini di Servizio e la Politica di Utilizzo, che vietano determinati usi di Claude. La mancata conformità ai Termini e alla Politica di Utilizzo può comportare la sospensione o la cessazione del tuo accesso ai servizi.

Misure di Sicurezza di Base

  • Memorizza gli ID collegati a ciascuna chiamata API, in modo che se hai bisogno di individuare contenuti specifici che violano le regole, tu abbia la possibilità di trovarli nei tuoi sistemi.

  • Considera di assegnare ID agli utenti, il che può aiutarti a tracciare individui specifici che violano l'AUP di Anthropic, consentendo azioni più mirate in casi di uso improprio.

    • La scelta di passare gli ID ad Anthropic attraverso l'API spetta a te. Tuttavia, se forniti, possiamo individuare le violazioni con maggiore precisione. Per aiutare a proteggere la privacy degli utenti finali, qualsiasi ID passato dovrebbe essere crittograficamente sottoposto a hash.

  • Considera di richiedere ai clienti di registrarsi per un account sulla tua piattaforma prima di utilizzare Claude

  • Assicurati che i tuoi clienti comprendano gli usi consentiti

  • Avvisa, limita o sospendi gli utenti che violano ripetutamente i Termini di Servizio e la Politica di Utilizzo di Anthropic

Misure di Sicurezza Intermedie

  • Crea framework di personalizzazione che limitino le interazioni degli utenti finali con Claude a un insieme limitato di prompt o che consentano a Claude di esaminare solo un corpus di conoscenze specifico che già possiedi, il che diminuirà la capacità degli utenti di impegnarsi in comportamenti che violano le regole.

  • Abilita filtri di sicurezza aggiuntivi - strumenti di moderazione in tempo reale gratuiti creati da Anthropic per aiutare a rilevare prompt potenzialmente dannosi e gestire azioni in tempo reale per ridurre i danni

    • Per ulteriori informazioni su come abilitare i nostri filtri di sicurezza aggiuntivi, contatta [email protected].

  • Per i Clienti Bedrock:

    • Attiva il tuo bucket S3 privato per memorizzare prompt e completamenti per la tua valutazione

Misure di Sicurezza Avanzate

Misure di Sicurezza Complete

  • Configura un sistema interno di revisione umana per segnalare i prompt che sono contrassegnati da Claude (utilizzato per la moderazione dei contenuti) o da un'API di moderazione come dannosi, in modo da poter intervenire per limitare o rimuovere gli utenti con alti tassi di violazione.

Hai ricevuto la risposta alla tua domanda?