메인 콘텐츠로 건너뛰기

Claude API를 사용하여 제품을 출시할 계획입니다. Anthropic의 사용 정책을 위반하지 않도록 하기 위해 어떤 단계를 거쳐야 합니까?

최소 한 달 전에 업데이트됨

우리는 AI 연구와 AI 제품의 최전선에 안전성을 두기 위해 Anthropic을 설립했습니다. 우리의 연구는 상용 제품에 반영되며, 우리의 모델은 현재 이용 가능한 가장 안정적이고 악용에 강한 모델 중 일부입니다. 우리는 사용자 피드백을 바탕으로 안전 필터를 개선하기 위해 노력하고 있으며, 우리의 상용 고객들이 우리의 안전 기능이 제대로 작동하지 않을 때 우리에게 책임을 물을 것으로 예상합니다.

하지만 우리는 안전성이 공동의 책임이라고 믿습니다. 우리의 기능은 완벽하지 않으며, 헌신적인 파트너들이 두 번째 방어선입니다. 사용 사례에 따라 조정 단계는 다르겠지만, 다음은 몇 가지 추가 안전 권장사항입니다:

  • Claude를 콘텐츠 조정 필터로 사용하여 위반 사항을 식별하고 방지합니다.

  • 외부 사용자 대면 제품의 경우, 사용자에게 AI 시스템과 상호작용하고 있음을 공개합니다.

  • 민감한 정보 및 의사결정의 경우, 소비자에게 배포하기 전에 자격을 갖춘 전문가가 콘텐츠를 검토하도록 합니다.

우리는 [email protected]으로 피드백이나 구체적인 제안을 보내주시기를 권장합니다. 기존 상용 파트너의 경우, 우리의 Discord 서버에 참여하여 다른 개발자들과 아이디어를 교환할 것을 권장합니다.

답변이 도움되었나요?