우리는 AI 연구와 AI 제품의 최전선에 안전성을 두기 위해 Anthropic을 설립했습니다. 우리의 연구는 상용 제품에 반영되며, 우리의 모델은 현재 이용 가능한 가장 안정적이고 악용에 강한 모델 중 일부입니다. 우리는 사용자 피드백을 바탕으로 안전 필터를 개선하기 위해 노력하고 있으며, 우리의 상용 고객들이 우리의 안전 기능이 제대로 작동하지 않을 때 우리에게 책임을 물을 것으로 예상합니다.
하지만 우리는 안전성이 공동의 책임이라고 믿습니다. 우리의 기능은 완벽하지 않으며, 헌신적인 파트너들이 두 번째 방어선입니다. 사용 사례에 따라 중재 단계는 다르게 보일 것이지만, 다음은 몇 가지 추가 안전 권장사항입니다:
Claude를 콘텐츠 중재 필터로 사용하여 위반 사항을 식별하고 방지합니다.
외부 사용자 대면 제품의 경우, 사용자에게 AI 시스템과 상호작용하고 있음을 공개합니다.
민감한 정보 및 의사결정의 경우, 소비자에게 배포하기 전에 자격을 갖춘 전문가가 콘텐츠를 검토하도록 합니다.
우리는 [email protected]으로 피드백이나 구체적인 제안을 보내주시기를 권장합니다. 기존 상용 파트너의 경우, 우리의 Discord 서버에 참여하여 다른 개발자들과 아이디어를 교환할 것을 권장합니다.
