Claudeの出力をモデルのトレーニングおよび開発に使用することに関するポリシーについて
Claudeを使用する際、入力から生成された出力はお客様に帰属します。ただし、これらの出力をAIモデルのトレーニングに使用することについては、AI業界全体で標準的な慣行となっている重要な制限があります。当社は、書面による許可なしに、お客様が当社のサービスをAIモデルのトレーニングまたは開発に使用することを禁止しています。本記事では、許可される使用方法、禁止される使用方法、およびこれらのポリシーが存在する理由について説明します。
モデルトレーニングを制限する理由
Anthropicは、Claudeを安全で、有用で、無害なものにするために多大な投資を行っています。当社は厳格なリリース前テストを実施し、複数の安全層を実装し、モデルの動作を継続的に監視しています。出力が当社の監視なしに新しいモデルのトレーニングに使用される場合、追加のリスクが生じます。安全管理が失われる可能性があります。Claudeの出力でトレーニングされたモデルには当社の安全対策が備わっておらず、有害または危険なAIシステムにつながる可能性があります。また、当社はデプロイメントに対する可視性を持たないため、これらの蒸留されたモデルがどのように使用されているかを監視したり、悪用を防止したりすることができません。
お客様がClaudeを使用して出力を生成し、それが競合モデルのトレーニングに使用される場合、実質的に当社のインフラストラクチャと投資を使用して、当社のサービスに対する直接的な競合相手を構築していることになります。他のソフトウェアおよびサービスプロバイダーと同様に、当社は、当社のサービスが当社の製品提供を損なうために使用されないことを期待しています。
出力で実行できること
Anthropicの独自モデルと競合しないモデルをトレーニングするために、Claudeの出力を使用することができます。これには、以下のような特殊な分類器やツールの作成が含まれます:
感情分析ツール
コンテンツ分類システム
要約ツール
情報抽出ツール
セマンティック検索ツール
異常検知ツール
出力は、製品内の機能を強化したり、顧客向けのコンテンツを生成したり、データを分析および構造化したり、内部ワークフローと生産性を向上させたりするために、アプリケーションに統合することもできます。
禁止事項
当社の利用規約では、Anthropicの独自モデルと競合するモデルをトレーニングするために出力を使用することは許可されていません。また、第三者が同様の行為を行うことを支援することも、当社の利用規約違反となります。
禁止される使用方法には以下が含まれます:
汎用チャットボット
オープンエンドなテキスト生成用に設計されたモデル
モデルのトレーニングターゲットとして出力を使用すること
トレーニング方法のリバースエンジニアリング
