Verständnis unserer Richtlinien zur Verwendung von Claude-Outputs für Modelltraining und -entwicklung
Wenn Sie Claude verwenden, besitzen Sie die Outputs, die aus Ihren Inputs generiert werden. Es gibt jedoch wichtige Einschränkungen bei der Verwendung dieser Outputs zum Trainieren von KI-Modellen, was in der KI-Branche Standard ist. Wir verbieten Kunden, unsere Dienste zum Trainieren oder Entwickeln von KI-Modellen ohne unsere schriftliche Genehmigung zu nutzen. Dieser Artikel erklärt, welche Verwendungen zulässig sind, welche verboten sind und warum diese Richtlinien existieren.
Warum wir Modelltraining einschränken
Anthropic investiert erheblich in die Sicherheit, Hilfsbereitschaft und Harmlosigkeit von Claude. Wir führen rigorose Tests vor der Veröffentlichung durch, implementieren mehrere Sicherheitsebenen und überwachen kontinuierlich das Verhalten unserer Modelle. Wenn Outputs ohne unsere Überwachung zum Trainieren neuer Modelle verwendet werden, entstehen zusätzliche Risiken. Sicherheitskontrollen können verloren gehen – Modelle, die auf Claude-Outputs trainiert werden, haben nicht unsere Sicherheitsmaßnahmen und könnten zu schädlichen oder gefährlichen KI-Systemen führen. Wir haben auch keine Sichtbarkeit in die Bereitstellung, was bedeutet, dass wir nicht überwachen können, wie diese destillierten Modelle verwendet werden oder Missbrauch verhindern können.
Wenn Kunden Claude verwenden, um Outputs zu generieren, die dann konkurrierende Modelle trainieren, nutzen sie im Grunde unsere Infrastruktur und Investitionen, um direkte Konkurrenten zu unserem Service aufzubauen. Wie andere Software- und Dienstanbieter erwarten wir, dass unsere Dienste nicht dazu verwendet werden, unsere Produktangebote zu untergraben.
Was Sie mit Outputs tun können
Sie können Claude-Outputs zum Trainieren von Modellen verwenden, die nicht mit Anthropic-eigenen Modellen konkurrieren. Dies umfasst die Erstellung spezialisierter Klassifizierer und Tools wie:
Sentiment-Analyse-Tools
Inhaltsklassifizierungssysteme
Zusammenfassungs-Tools
Informationsextraktions-Tools
Semantische Such-Tools
Anomalieerkennung-Tools
Outputs können auch in Ihre Anwendungen integriert werden, um Funktionen in Ihren Produkten bereitzustellen, Inhalte für Ihre Kunden zu generieren, Ihre Daten zu analysieren und zu strukturieren oder interne Arbeitsabläufe und Produktivität zu verbessern.
Was ist verboten
Unsere Nutzungsbedingungen erlauben nicht die Verwendung von Outputs zum Trainieren von Modellen, die mit Anthropic-eigenen konkurrieren. Es ist auch eine Verletzung unserer Nutzungsbedingungen, einen Drittanbieter bei dem Versuch zu unterstützen, dasselbe zu tun.
Verbotene Verwendungen umfassen:
Allgemeine Chatbots
Modelle für offene Textgenerierung
Verwendung von Outputs als Trainingsziele für Modelle
Reverse Engineering von Trainingsmethoden
