メインコンテンツにスキップ

当社の利用ポリシーの例外

今週アップデートされました

Anthropicは、当社のAIシステムの責任ある展開を確保するための包括的な利用ポリシーを維持しています。Anthropicは、Anthropicの判断において、契約上の利用制限および適用可能なセーフガードがこの利用ポリシーで対処される潜在的な害を軽減するのに適切である場合、その顧客の公的使命および法的権限に合わせた利用制限を調整する政府顧客との契約を締結することができます。

例えば、慎重に選定された政府機関との場合、適用法に従って外国情報分析を許可することがあります。偽情報キャンペーン、兵器の設計または使用、検閲、国内監視、および悪意のあるサイバー操作の禁止を含む、当社の利用ポリシーのその他すべての利用制限は変わりません。

現在のところ、このポリシーは当社の責任あるスケーリングポリシー(RSP)に基づくAIセーフティレベル2(ASL-2)のモデルにのみ適用されます。

利用ポリシーの修正の対象となる政府機関はどれですか?

政府機関の使命および法的権限に利用制限を調整するかどうかについての当社の評価は、当社の製品およびサービスの有益な使用を可能にすることと潜在的な害を軽減することのバランスを取ることを目的としており、以下を含みます:

  • 提案された使用事例に対するモデルの適合性に関する当社の評価。

  • 当該機関の法的権限。

  • Anthropicとの継続的な対話に従事する機関の意思の程度。

  • 誤用を防止し、誤りのリスクを軽減するために実施されているセーフガード。

  • 立法上または規制上の制約およびその他の関連する公的コミットメントを含む、組織およびそれらのAI技術の使用に対する独立した民主的監視の程度。

こちらの回答で解決しましたか?