Vai al contenuto principale

Sto pianificando di lanciare un prodotto utilizzando l'API Claude. Quali passaggi dovrei seguire per assicurarmi di non violare la Usage Policy di Anthropic?

Aggiornato questa settimana

Abbiamo fondato Anthropic per mettere la sicurezza in prima linea nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Stiamo lavorando per migliorare i nostri filtri di sicurezza in base al feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzionalità di sicurezza non funzionano.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e i partner impegnati rappresentano una seconda linea di difesa. A seconda del vostro caso d'uso, le misure di moderazione saranno diverse, ma ecco alcuni consigli aggiuntivi sulla sicurezza:

  • Utilizzare Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti all'esterno, comunicare agli utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e decisioni importanti, far revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Vi incoraggiamo a inviarci feedback o proposte specifiche a [email protected]. Per i partner commerciali esistenti, raccomandiamo di unirvi al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?