メインコンテンツにスキップ

Anthropic のモデルの責任ある使用:未成年者にサービスを提供する組織向けガイドライン

今週アップデートされました

Anthropicでは、デジタル空間における児童の独特な脆弱性とニーズを認識しています。より安全なデジタル環境を構築し、リスクを軽減するため、当社のAPI(s)を組み込んだ製品と直接やり取りする能力を未成年者に提供する組織は、以下のセーフガードを実装すべきです:

1. 追加の技術的措置

未成年者向けの製品を提供する組織は、その独特なユースケースに合わせた追加のセーフティ機能を実装すべきです。これらの組織は、エンドユーザーがAnthropicのサービスを組み込んだ製品とどのような特定の方法でやり取りするかを最もよく理解しているためです。これらのセーフティ措置には、以下が含まれますが、これに限定されません:

  • 意図されたユーザーのみが製品にアクセスできることを確認するための年齢確認システム

  • 不適切または有害なコンテンツをブロックするためのコンテンツモデレーションとフィルタリング

  • 潜在的な問題を特定し対処するための監視および報告メカニズム

  • 未成年者向けの製品の安全で責任ある使用に関する教育リソースとガイダンス

これらの組織固有の措置に加えて、Anthropicは特定のエンドユーザー(未成年者を含む)向けに製品体験をカスタマイズすることを目的とした技術的措置を提供する場合があります。例えば、当社は児童安全システムプロンプトを提供する場合があり、未成年者向けの製品を提供する組織は、包括的なセーフティ措置スイートの一部としてこれを実装すべきです。これらの技術的措置は有用ですが、完全ではなく、児童安全への堅牢なアプローチを確保するために、組織独自のセーフティ機能と組み合わせて使用すべきことに注意することが重要です。

2. 規制遵守

組織は、米国の児童オンラインプライバシー保護法(COPPA)など、適用されるすべての児童安全およびデータプライバシー規制に準拠する責任があります。これらの規制への準拠は、組織のウェブサイトまたは同様の公開向けドキュメントに明確に記載されるべきです。

3. 開示要件

組織は、ユーザーが人間ではなくAIシステムと対話していることをユーザーに開示する必要があります。

Anthropicは、これらのセーフガードへの準拠について定期的に組織を監査します。貴組織の違反率が高く、これらのセーフティ推奨事項を実装していない場合、当社は貴組織にこれらを実装するよう要求する場合があります。要求された場合にこれらの推奨事項を実装しなかった場合、または違反率が継続的に高い場合、アカウントの停止または終了につながる可能性があります。

こちらの回答で解決しましたか?