Claude の出力をモデルトレーニングと開発に使用するポリシーの理解
Claude を使用する場合、入力から生成された出力の所有権はあなたにあります。ただし、これらの出力を AI モデルのトレーニングに使用することについては、AI 業界全体で標準的な慣行である重要な制限があります。当社は、書面による許可なしに当社のサービスを使用して AI モデルをトレーニングまたは開発することを禁止しています。この記事では、許可されている使用方法、禁止されている使用方法、およびこれらのポリシーが存在する理由について説明します。
モデルトレーニングを制限する理由
Anthropic は Claude を安全で有用で無害にするために多大な投資を行っています。当社は厳密なリリース前テストを実施し、複数のセーフティレイヤーを実装し、モデルの動作を継続的に監視しています。当社の監視なしに出力を使用して新しいモデルをトレーニングする場合、追加のリスクが生じます。セーフティコントロールが失われる可能性があります。Claude の出力でトレーニングされたモデルは当社のセーフティ対策を備えていないため、有害または危険な AI システムにつながる可能性があります。また、デプロイメントについての可視性がないため、これらの蒸留モデルがどのように使用されているかを監視したり、悪用を防止したりすることができません。
顧客が Claude を使用して出力を生成し、その後それが競合するモデルをトレーニングする場合、本質的には当社のインフラストラクチャと投資を使用して当社のサービスに対する直接的な競合他社を構築しています。他のソフトウェアおよびサービスプロバイダーと同様に、当社は当社のサービスが当社の製品提供を損なうために使用されないことを期待しています。
出力でできること
Claude の出力を使用して、Anthropic 独自のモデルと競合しないモデルをトレーニングできます。これには、以下のような特殊な分類器とツールの作成が含まれます。
- 感情分析ツール 
- コンテンツ分類システム 
- 要約ツール 
- 情報抽出ツール 
- セマンティック検索ツール 
- 異常検知ツール 
出力は、アプリケーションに統合して製品内の機能を強化したり、顧客向けのコンテンツを生成したり、データを分析・構造化したり、内部ワークフローと生産性を向上させたりすることもできます。
禁止事項
当社の利用規約では、Anthropic 独自のモデルと競合するモデルをトレーニングするために出力を使用することは許可されていません。また、第三者がこれを行おうとする試みをサポートすることも当社の利用規約違反です。
禁止されている使用方法は以下の通りです。
- 汎用チャットボット 
- オープンエンドのテキスト生成用に設計されたモデル 
- モデルのトレーニングターゲットとして出力を使用すること 
- トレーニング方法のリバースエンジニアリング 
