Zum Hauptinhalt springen

CSAM-Erkennung und Meldung

Diese Woche aktualisiert

Anthropic verbietet streng Child Sexual Abuse Material (CSAM) auf unseren Diensten. Wir sind verpflichtet, die Verbreitung von CSAM über unsere Produkte zu bekämpfen und werden gekennzeichnete Medien und zugehörige Informationen an das National Center for Missing and Exploited Children (NCMEC) melden.

Als nur ein Beispiel dafür, wie wir die Verbreitung von CSAM bekämpfen: Bei unseren First-Party-Diensten verwenden wir ein Hash-Matching-Tool, um bekanntes CSAM zu erkennen und zu melden, das in den Eingaben eines Benutzers oder einer Organisation enthalten ist. Dieses Tool bietet Zugriff auf die Datenbank des NCMEC mit bekannten CSAM-Hash-Werten. Wenn ein Bild in einer Eingabe an unsere Dienste gesendet wird, berechnen wir einen perceptual Hash des Bildes. Dieser Hash wird automatisch mit der Datenbank verglichen. Im Falle einer Übereinstimmung benachrichtigen wir das NCMEC und stellen Informationen über die Eingabe und das zugehörige Konto bereit.

Im Rahmen von Anthropic's Sicherheitsverfahren senden wir dem Benutzer oder der Organisation auch eine Mitteilung, wenn wir CSAM an das NCMEC melden. Wenn Sie eine Benachrichtigung von uns zur CSAM-Erkennung erhalten und glauben, dass wir einen Fehler gemacht haben, senden Sie bitte eine E-Mail an [email protected].

Hat dies deine Frage beantwortet?