Vai al contenuto principale

Sto pianificando di lanciare un prodotto utilizzando l'API Claude. Quali passi dovrei intraprendere per assicurarmi di non violare la Politica di Utilizzo di Anthropic?

Aggiornato questa settimana

Abbiamo fondato Anthropic per mettere la sicurezza in primo piano nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Stiamo lavorando per migliorare i nostri filtri di sicurezza in base al feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci rendano responsabili quando le nostre funzioni di sicurezza non funzionano correttamente.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzioni non sono infallibili, e i partner impegnati rappresentano una seconda linea di difesa. A seconda del tuo caso d'uso, i passaggi di moderazione avranno un aspetto diverso, ma ecco alcuni consigli di sicurezza aggiuntivi:

  • Usa Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti all'esterno, comunica ai tuoi utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e processi decisionali, fai revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Ti incoraggiamo a inviarci feedback o proposte specifiche a [email protected]. Per i partner commerciali esistenti, ti consigliamo di unirti al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?