Anthropicは、AIシステムの責任ある展開を確保するため、包括的な利用規約を維持しています。Anthropicは、政府顧客との契約において、その顧客の公的使命と法的権限に合わせて利用制限を調整することがあります。ただし、これはAnthropicの判断において、契約上の利用制限と適用される保護措置が、本利用規約で対処される潜在的な危害を軽減するのに十分である場合に限ります。
例えば、慎重に選定された政府機関に対しては、適用法に従った外国情報分析を許可する場合があります。利用規約におけるその他すべての利用制限、すなわち偽情報キャンペーン、兵器の設計または使用、検閲、国内監視、悪意のあるサイバー作戦への使用を禁止する制限は、引き続き適用されます。
現時点では、この方針は責任あるスケーリング方針(RSP)に基づくAI安全レベル2(ASL-2)のモデルにのみ適用されます。
どの政府機関が利用規約の修正の対象となりますか?
政府機関の使命と法的権限に合わせて利用制限を調整するかどうかの評価は、当社の製品とサービスの有益な利用を可能にすることと、潜在的な危害を軽減することのバランスを取ることを目的としており、以下を含みます:
提案された使用事例に対するモデルの適合性についての当社の評価。
当該機関の法的権限。
Anthropicとの継続的な対話に取り組む機関の意欲の程度。
誤用を防止し、誤りのリスクを軽減するための保護措置。
組織とそのAI技術の使用に対する独立した民主的な監視の程度。これには立法上または規制上の制約、その他の関連する公的コミットメントが含まれます。
