메인 콘텐츠로 건너뛰기

Claude API를 사용하여 제품을 출시할 계획입니다. Anthropic의 사용 정책을 위반하지 않도록 하기 위해 어떤 단계를 거쳐야 합니까?

오늘 업데이트함

우리는 AI 연구와 AI 제품의 최전선에 안전성을 두기 위해 Anthropic을 설립했습니다. 우리의 연구는 상용 제품에 반영되며, 우리의 모델은 현재 이용 가능한 가장 안정적이고 악용에 강한 모델 중 일부입니다. 우리는 사용자 피드백을 바탕으로 안전 필터를 개선하기 위해 노력하고 있으며, 우리의 상용 고객들이 우리의 안전 기능이 제대로 작동하지 않을 때 우리에게 책임을 물을 것으로 예상합니다.

하지만 우리는 안전성이 공동의 책임이라고 믿습니다. 우리의 기능은 완벽하지 않으며, 헌신적인 파트너들이 두 번째 방어선입니다. 사용 사례에 따라 중재 단계는 다르게 보일 것이지만, 다음은 몇 가지 추가 안전 권장사항입니다:

  • Claude를 콘텐츠 중재 필터로 사용하여 위반 사항을 식별하고 방지합니다.

  • 외부 사용자 대면 제품의 경우, 사용자에게 AI 시스템과 상호작용하고 있음을 공개합니다.

  • 민감한 정보 및 의사결정의 경우, 소비자에게 배포하기 전에 자격을 갖춘 전문가가 콘텐츠를 검토하도록 합니다.

우리는 [email protected]으로 피드백이나 구체적인 제안을 보내주시기를 권장합니다. 기존 상용 파트너의 경우, 우리의 Discord 서버에 참여하여 다른 개발자들과 아이디어를 교환할 것을 권장합니다.

답변이 도움되었나요?