Vai al contenuto principale

Sto pianificando di lanciare un prodotto utilizzando l'API Claude. Quali passi dovrei intraprendere per assicurarmi di non violare la Politica di Utilizzo di Anthropic?

Aggiornato oltre 2 settimane fa

Abbiamo fondato Anthropic per mettere la sicurezza in primo piano nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Stiamo lavorando per migliorare i nostri filtri di sicurezza in base al feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci rendano responsabili quando le nostre funzioni di sicurezza non funzionano correttamente.

Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzioni non sono infallibili, e i partner impegnati rappresentano una seconda linea di difesa. A seconda del tuo caso d'uso, le misure di moderazione avranno un aspetto diverso, ma ecco alcuni consigli di sicurezza aggiuntivi:

  • Usa Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.

  • Per i prodotti rivolti agli utenti esterni, comunica ai tuoi utenti che stanno interagendo con un sistema di IA.

  • Per informazioni sensibili e processi decisionali, fai revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.

Ti incoraggiamo a inviarci feedback o proposte specifiche a [email protected]. Per i partner commerciali esistenti, ti consigliamo di unirti al nostro server Discord e scambiare idee con altri sviluppatori.

Hai ricevuto la risposta alla tua domanda?