Memahami kebijakan kami tentang penggunaan Output Claude untuk pelatihan dan pengembangan model
Ketika Anda menggunakan Claude, Anda memiliki Output yang dihasilkan dari Input Anda. Namun, ada batasan penting tentang penggunaan Output ini untuk melatih model AI yang merupakan praktik standar di seluruh industri AI. Kami melarang pelanggan menggunakan layanan kami untuk melatih atau mengembangkan model AI tanpa izin tertulis kami. Artikel ini menjelaskan penggunaan apa yang diizinkan, penggunaan apa yang dilarang, dan mengapa kebijakan ini ada.
Mengapa kami membatasi pelatihan model
Anthropic berinvestasi secara signifikan dalam membuat Claude aman, membantu, dan tidak berbahaya. Kami melakukan pengujian pra-peluncuran yang ketat, menerapkan beberapa lapisan keamanan, dan terus memantau perilaku model kami. Ketika Output digunakan untuk melatih model baru tanpa pengawasan kami, risiko tambahan muncul. Kontrol keamanan mungkin hilang – model yang dilatih pada Output Claude tidak akan memiliki langkah-langkah keamanan kami, yang berpotensi menyebabkan sistem AI yang berbahaya atau berbahaya. Kami juga tidak memiliki visibilitas ke dalam penerapan, yang berarti kami tidak dapat memantau bagaimana model yang disaring ini digunakan atau mencegah penyalahgunaan.
Ketika pelanggan menggunakan Claude untuk menghasilkan Output yang kemudian melatih model pesaing, mereka pada dasarnya menggunakan infrastruktur dan investasi kami untuk membangun pesaing langsung untuk layanan kami. Seperti penyedia perangkat lunak dan layanan lainnya, kami mengharapkan bahwa layanan kami tidak akan digunakan untuk merusak penawaran produk kami.
Apa yang dapat Anda lakukan dengan Output
Anda dapat menggunakan Output Claude untuk melatih model yang tidak bersaing dengan model Anthropic sendiri. Ini termasuk membuat pengklasifikasi khusus dan alat seperti:
- Alat analisis sentimen 
- Sistem kategorisasi konten 
- Alat peringkasan 
- Alat ekstraksi informasi 
- Alat pencarian semantik 
- Alat deteksi anomali 
Output juga dapat diintegrasikan ke dalam aplikasi Anda untuk mendukung fitur dalam produk Anda, menghasilkan konten untuk pelanggan Anda, menganalisis dan menyusun data Anda, atau meningkatkan alur kerja internal dan produktivitas.
Apa yang dilarang
Syarat dan Ketentuan kami tidak memungkinkan penggunaan Output untuk melatih model yang bersaing dengan model Anthropic sendiri. Ini juga merupakan pelanggaran Syarat dan Ketentuan kami untuk mendukung upaya pihak ketiga untuk melakukan hal yang sama.
Penggunaan yang dilarang termasuk:
- Chatbot tujuan umum 
- Model yang dirancang untuk pembuatan teks terbuka 
- Menggunakan Output sebagai target pelatihan untuk model 
- Rekayasa balik metode pelatihan 
