Zum Hauptinhalt springen

Ich plane, ein Produkt mit der Claude API zu starten. Welche Schritte sollte ich unternehmen, um sicherzustellen, dass ich gegen Anthropic's Usage Policy nicht verstoße?

Diese Woche aktualisiert

Wir haben Anthropic gegründet, um Sicherheit an der Grenze der KI-Forschung und KI-Produkte zu platzieren. Unsere Forschung informiert unsere kommerziellen Produkte, und unsere Modelle gehören zu den zuverlässigsten und widerstandsfähigsten gegen Missbrauch, die heute verfügbar sind. Wir arbeiten daran, unsere Sicherheitsfilter basierend auf Nutzerfeedback zu verbessern – und wir erwarten, dass unsere kommerziellen Kunden uns zur Rechenschaft ziehen, wenn unsere Sicherheitsfunktionen ausfallen.

Aber wir glauben, dass Sicherheit eine gemeinsame Verantwortung ist. Unsere Funktionen sind nicht ausfallsicher, und engagierte Partner sind eine zweite Verteidigungslinie. Je nach Ihrem Anwendungsfall werden Moderationsschritte unterschiedlich aussehen, aber hier sind einige zusätzliche Sicherheitsempfehlungen:

  • Verwenden Sie Claude als Inhaltsmoderationsfilter, um Verstöße zu identifizieren und zu verhindern.

  • Offenbaren Sie Ihren Benutzern bei externen Produkten, dass sie mit einem KI-System interagieren.

  • Für sensible Informationen und Entscheidungsfindung sollte ein qualifizierter Fachmann den Inhalt vor der Verbreitung an Verbraucher überprüfen.

Wir ermutigen Sie, uns Feedback oder spezifische Vorschläge unter [email protected] zu senden. Für bestehende Geschäftspartner empfehlen wir, unserem Discord-Server beizutreten und Ideen mit anderen Entwicklern auszutauschen.

Hat dies deine Frage beantwortet?