К основному содержимому

Я планирую запустить продукт с использованием Claude API. Какие шаги мне следует предпринять, чтобы убедиться, что я не нарушаю Политику использования Anthropic?

Обновлено сегодня

Мы основали Anthropic, чтобы поставить безопасность в центр исследований и продуктов в области ИИ. Наши исследования информируют наши коммерческие продукты, и наши модели являются одними из наиболее надежно безопасных и устойчивых к злоупотреблениям на сегодняшний день. Мы работаем над улучшением наших фильтров безопасности на основе отзывов пользователей - и мы ожидаем, что наши коммерческие клиенты будут привлекать нас к ответственности, когда наши функции безопасности дают сбой.

Но мы считаем, что безопасность - это общая ответственность. Наши функции не являются абсолютно надежными, и преданные партнеры - это вторая линия защиты. В зависимости от вашего варианта использования, шаги модерации будут выглядеть по-разному, но вот некоторые дополнительные рекомендации по безопасности:

  • Используйте Claude в качестве фильтра модерации контента для выявления и предотвращения нарушений.

  • Для продуктов, обращенных к внешним пользователям, раскройте своим пользователям, что они взаимодействуют с системой ИИ.

  • Для конфиденциальной информации и принятия решений попросите квалифицированного специалиста проверить контент перед распространением потребителям.

Мы рекомендуем вам отправить нам отзывы или конкретные предложения на адрес [email protected]. Для существующих коммерческих партнеров мы рекомендуем присоединиться к нашему серверу Discord и обмениваться идеями с другими разработчиками.

Нашли ответ на свой вопрос?