Abbiamo fondato Anthropic per mettere la sicurezza in prima linea nella ricerca sull'IA e nei prodotti di IA. La nostra ricerca informa i nostri prodotti commerciali, e i nostri modelli sono tra i più affidabilmente sicuri e resistenti agli abusi disponibili oggi. Stiamo lavorando per migliorare i nostri filtri di sicurezza in base al feedback degli utenti - e ci aspettiamo che i nostri clienti commerciali ci ritengano responsabili quando le nostre funzionalità di sicurezza non funzionano.
Ma crediamo che la sicurezza sia una responsabilità condivisa. Le nostre funzionalità non sono infallibili, e i partner impegnati rappresentano una seconda linea di difesa. A seconda del vostro caso d'uso, le misure di moderazione saranno diverse, ma ecco alcuni consigli aggiuntivi sulla sicurezza:
Utilizzare Claude come filtro di moderazione dei contenuti per identificare e prevenire le violazioni.
Per i prodotti rivolti all'esterno, comunicare agli utenti che stanno interagendo con un sistema di IA.
Per informazioni sensibili e decisioni importanti, far revisionare i contenuti da un professionista qualificato prima della diffusione ai consumatori.
Vi incoraggiamo a inviarci feedback o proposte specifiche a [email protected]. Per i partner commerciali esistenti, raccomandiamo di unirvi al nostro server Discord e scambiare idee con altri sviluppatori.
