Понимание наших политик по использованию Outputs Claude для обучения и разработки моделей
Когда вы используете Claude, вы владеете Outputs, созданными из ваших Inputs. Однако существуют важные ограничения на использование этих Outputs для обучения моделей ИИ, что является стандартной практикой в индустрии ИИ. Мы запрещаем клиентам использовать наши услуги для обучения или разработки моделей ИИ без нашего письменного разрешения. В этой статье объясняется, какие виды использования разрешены, какие запрещены и почему существуют эти политики.
Почему мы ограничиваем обучение моделей
Anthropic значительно инвестирует в то, чтобы сделать Claude безопасным, полезным и безвредным. Мы проводим тщательное тестирование перед выпуском, внедряем несколько уровней безопасности и постоянно отслеживаем поведение наших моделей. Когда Outputs используются для обучения новых моделей без нашего надзора, возникают дополнительные риски. Средства контроля безопасности могут быть потеряны – модели, обученные на Outputs Claude, не будут иметь наших мер безопасности, что потенциально может привести к созданию вредоносных или опасных систем ИИ. Кроме того, мы не имеем видимости в развертывание, что означает, что мы не можем отслеживать, как используются эти дистиллированные модели, или предотвратить их неправомерное использование.
Когда клиенты используют Claude для создания Outputs, которые затем обучают конкурирующие модели, они по сути используют нашу инфраструктуру и инвестиции для создания прямых конкурентов нашему сервису. Как и другие поставщики программного обеспечения и услуг, мы ожидаем, что наши услуги не будут использоваться для подрыва наших предложений продуктов.
Что вы можете делать с Outputs
Вы можете использовать Outputs Claude для обучения моделей, которые не конкурируют с собственными моделями Anthropic. Это включает создание специализированных классификаторов и инструментов, таких как:
Инструменты анализа тональности
Системы категоризации контента
Инструменты суммаризации
Инструменты извлечения информации
Инструменты семантического поиска
Инструменты обнаружения аномалий
Outputs также могут быть интегрированы в ваши приложения для обеспечения функций в ваших продуктах, создания контента для ваших клиентов, анализа и структурирования ваших данных или улучшения внутренних рабочих процессов и производительности.
Что запрещено
Наши Условия не допускают использование Outputs для обучения моделей, которые конкурируют с собственными моделями Anthropic. Это также является нарушением наших Условий – поддерживать попытку третьей стороны сделать то же самое.
Запрещенные виды использования включают:
Универсальные чат-боты
Модели, предназначенные для открытого создания текста
Использование Outputs в качестве целевых данных для обучения моделей
Обратное проектирование методов обучения
