Anthropicでは、デジタル空間における子どもたちの特有の脆弱性とニーズを認識しています。より安全なデジタル環境を構築し、リスクを軽減するために、当社のAPIを組み込んだ製品を通じて未成年者が直接やり取りできる機能を提供する組織は、以下の保護措置を実施する必要があります。
1. 追加の技術的措置
未成年者向けの製品を提供する組織は、それぞれの独自のユースケースに合わせた追加の安全機能を実装する必要があります。これらの組織は、エンドユーザーがAnthropicのサービスを組み込んだ製品とどのようにやり取りするかを最もよく理解できる立場にあるためです。これらの安全措置には、以下が含まれますが、これらに限定されません。
意図されたユーザーのみが製品にアクセスできるようにするための年齢確認システム
不適切または有害なコンテンツをブロックするためのコンテンツモデレーションとフィルタリング
潜在的な問題を特定し対処するための監視および報告メカニズム
製品の安全かつ責任ある使用に関する未成年者向けの教育リソースとガイダンス
これらの組織固有の措置に加えて、Anthropicは、未成年者を含む特定のエンドユーザー向けに製品体験を調整することを目的とした技術的措置を提供する場合があります。例えば、児童安全システムプロンプトを提供することがあり、未成年者向けサービスを提供する組織は、包括的な安全措置の一環としてこれを実装する必要があります。これらの技術的措置は有用ではありますが、完全ではないことに留意することが重要です。児童の安全に対する堅牢なアプローチを確保するために、組織独自の安全機能と併用する必要があります。
2. 規制遵守
米国の児童オンラインプライバシー保護法(COPPA)など、適用されるすべての児童安全およびデータプライバシー規制を遵守することは、組織の責任です。これらの規制の遵守は、組織のウェブサイトまたは同様の公開文書に明確に記載する必要があります。
3. 開示要件
組織は、ユーザーが人間ではなくAIシステムとやり取りしていることをユーザーに開示する必要があります。
Anthropicは、これらの保護措置の遵守について組織を定期的に監査します。貴組織の違反率が高く、これらの安全に関する推奨事項を実装していない場合、実装を求めることがあります。要請された際にこれらの推奨事項を実装しなかった場合、または違反率が引き続き高い場合、アカウントの停止または終了につながる可能性があります。
