私たちはAI研究とAI製品の最前線に安全性を置くためにAnthropicを設立しました。私たちの研究は商用製品に反映されており、私たちのモデルは今日利用可能な中で最も信頼性が高く安全で、悪用に強いものの一つです。私たちはユーザーフィードバックに基づいて安全フィルターの改善に取り組んでおり、安全機能が機能していない場合には、商用顧客が私たちに責任を求めることを期待しています。
しかし、私たちは安全性は共有責任であると考えています。私たちの機能は完全ではなく、献身的なパートナーが第二の防衛線となります。ユースケースによってモデレーションの手順は異なりますが、以下にいくつかの追加の安全性に関する推奨事項を示します:
Claudeをコンテンツモデレーションフィルターとして使用して、違反を特定し防止します。
外部向け製品の場合、ユーザーにAIシステムとやり取りしていることを開示してください。
機密情報や意思決定については、消費者への配信前に資格のある専門家にコンテンツをレビューしてもらってください。
フィードバックや具体的な提案を[email protected]までお送りいただくことをお勧めします。既存の商用パートナーの方には、Discordサーバーへの参加と、他の開発者との意見交換もお勧めします。
