私たちはAnthropicを設立し、AI研究とAI製品の最前線に安全性を置くことに取り組んでいます。私たちの研究は商用製品に活かされており、私たちのモデルは今日利用可能な最も信頼性が高く、悪用に強いものの一部です。ユーザーフィードバックに基づいて安全フィルターを改善するために取り組んでおり、商用顧客が安全機能の不具合について私たちに責任を持たせることを期待しています。
しかし、安全性は共有責任だと考えています。私たちの機能は完全ではなく、コミットされたパートナーは第二の防御線です。ユースケースに応じて、モデレーション手順は異なりますが、ここにいくつかの追加の安全性に関する推奨事項があります:
Claudeをコンテンツモデレーションフィルターとして使用して、違反を特定し防止します。
外部向けの製品の場合、ユーザーがAIシステムと対話していることをユーザーに開示してください。
機密情報と意思決定については、消費者への配信前に適格な専門家がコンテンツをレビューしてください。
フィードバックまたは具体的な提案を[email protected]に送信することをお勧めします。既存の商用パートナーの場合、私たちのDiscordサーバーに参加して、他の開発者とアイデアを交換することをお勧めします。
