メインコンテンツにスキップ

CSAM検知と報告

今週アップデートされました

Anthropicは、当社のサービス上における児童性的虐待物(CSAM)を厳格に禁止しています。当社は製品全体でCSAMの配布と闘うことに尽力しており、フラグが立てられたメディアおよび関連情報を全米行方不明・被搾取児童センター(NCMEC)に報告します。

CSAMの配布と闘う方法の一例として:当社のファーストパーティサービスでは、ユーザーまたは組織の入力に含まれる既知のCSAMを検出して報告するために、ハッシュマッチングツールを使用しています。このツールは、NCMECの既知のCSAMハッシュ値のデータベースへのアクセスを提供します。画像が当社のサービスへの入力として送信されると、その画像の知覚的ハッシュを計算します。このハッシュは自動的にデータベースと照合されます。一致した場合、当社はNCMECに通知し、入力および関連するアカウントに関する情報を提供します。

Anthropicの安全プロセスの一環として、CSAMをNCMECに報告する際には、その都度ユーザーまたは組織に通知を送信します。CSAMの検出に関する当社からの通知を受け取り、当社が誤りを犯したと思われる場合は、[email protected]までメールでご連絡ください。

こちらの回答で解決しましたか?