Wir haben Anthropic gegründet, um Sicherheit an die Spitze der KI-Forschung und KI-Produkte zu stellen. Unsere Forschung fließt in unsere kommerziellen Produkte ein, und unsere Modelle gehören zu den zuverlässigsten und missbrauchsresistentesten, die heute verfügbar sind. Wir arbeiten daran, unsere Sicherheitsfilter auf Grundlage von Nutzerfeedback zu verbessern – und wir erwarten, dass unsere kommerziellen Kunden uns zur Rechenschaft ziehen, wenn unsere Sicherheitsfunktionen versagen.
Aber wir glauben, dass Sicherheit eine gemeinsame Verantwortung ist. Unsere Funktionen sind nicht ausfallsicher, und engagierte Partner sind eine zweite Verteidigungslinie. Je nach Anwendungsfall werden Moderationsschritte unterschiedlich aussehen, aber hier sind einige zusätzliche Sicherheitsempfehlungen:
Verwenden Sie Claude als Inhaltsmoderationsfilter, um Verstöße zu identifizieren und zu verhindern.
Informieren Sie bei nach außen gerichteten Produkten Ihre Nutzer darüber, dass sie mit einem KI-System interagieren.
Lassen Sie bei sensiblen Informationen und Entscheidungsfindungen Inhalte von qualifizierten Fachleuten überprüfen, bevor sie an Verbraucher weitergegeben werden.
Wir ermutigen Sie, uns Feedback oder konkrete Vorschläge an [email protected] zu senden. Für bestehende kommerzielle Partner empfehlen wir, unserem Discord-Server beizutreten und sich mit anderen Entwicklern auszutauschen.
