Zum Hauptinhalt springen

Claude Cowork mit Drittanbieter-Plattformen installieren und konfigurieren

Heute aktualisiert

Diese Anleitung führt IT-Administratoren durch die Bereitstellung von Claude Cowork auf Amazon Bedrock, Google Cloud Vertex AI, Azure AI Foundry oder einem LLM-Gateway. Sie behandelt Download, MDM-Konfiguration für macOS und Windows, anbieter-spezifische Einrichtung und die vollständige MDM-Schlüsselreferenz.

Wenn Sie evaluieren, ob diese Bereitstellung für Ihre Organisation geeignet ist, beginnen Sie mit Claude Cowork mit Drittanbieter-Plattformen.

Bevor Sie beginnen

Stellen Sie sicher, dass Sie Folgendes haben:

  • Plattformzugriff — macOS 13.0 (Ventura) oder später, oder Windows 10 oder 11. Unter Windows muss die Virtual Machine Platform-Funktion aktiviert sein, was einen einmaligen Neustart des Systems erfordert.

  • Ein Inference-Anbieter — Amazon Bedrock, Google Cloud Vertex AI, Azure AI Foundry oder ein LLM-Gateway, das /v1/messages verfügbar macht.

  • Anmeldedaten für diesen Anbieter — ein API-Schlüssel, Bearer-Token, Service-Account-JSON oder Foundry-Schlüssel, je nachdem welchen Anbieter Sie verwenden.

  • MDM-Zugriff — Jamf, Kandji, Mosyle oder ähnlich für macOS. Intune oder Gruppenrichtlinie für Windows.


Installationsprogramm herunterladen

Laden Sie Claude Desktop für Ihre Plattform von der Download-Seite herunter. Die gleiche Binärdatei wird für Standard-Claude Cowork und Drittanbieter-Bereitstellungen bereitgestellt – das MDM-Konfigurationsprofil bestimmt, in welchem Modus die App ausgeführt wird.

macOS

  1. Laden Sie das macOS-Installationsprogramm von der Download-Seite herunter.

  2. Öffnen Sie die .dmg-Datei.

  3. Ziehen Sie Claude.app in Ihren Anwendungsordner.

  4. Konfigurieren Sie Drittanbieter-Inference über die Setup-Benutzeroberfläche (nächster Abschnitt).

  5. Wenden Sie die MDM-Konfiguration an (siehe Abschnitt Konfiguration unten).

Windows

  1. Laden Sie das Windows-Installationsprogramm von der Download-Seite herunter.

  2. Führen Sie das .msix-Installationsprogramm aus. Es ist für Enterprise-Bereitstellungen konzipiert und kann über Intune oder Gruppenrichtlinie bereitgestellt werden.

  3. Folgen Sie den Anweisungen auf dem Bildschirm.

  4. Konfigurieren Sie Drittanbieter-Inference über die Setup-Benutzeroberfläche (nächster Abschnitt).

  5. Wenden Sie die MDM-Konfiguration an (siehe Abschnitt Konfiguration unten).

Konfigurieren Sie Drittanbieter-Inference über die Setup-Benutzeroberfläche

Öffnen Sie die heruntergeladene Claude Desktop-App (Sie müssen sich nicht anmelden). Navigieren Sie zur Menüleiste und wählen Sie Hilfe → Fehlerbehebung → Entwicklermodus aktivieren. Wenn der Entwicklermodus aktiviert ist, gehen Sie zu Entwickler → Drittanbieter-Inference konfigurieren. Dies aktiviert eine Setup-Benutzeroberfläche zum Konfigurieren der erforderlichen Felder. Weitere Informationen zu jedem Feld finden Sie hier: Konfigurationsreferenz.


Wenden Sie die MDM-Konfiguration an

Wenden Sie nach der Installation ein verwaltetes Konfigurationsprofil an, um den Drittanbieter-Plattformmodus zu aktivieren und die App auf Ihren Inference-Anbieter zu verweisen.

macOS

Wählen Sie in der Setup-Benutzeroberfläche Exportieren, um eine .mobileconfig-Datei zur Verteilung herunterzuladen.

Stellen Sie eine .mobileconfig-Konfigurationsdatei über Ihre MDM-Lösung bereit.

  • Domain: com.anthropic.claudefordesktop

  • Bereitstellung: Jamf, Kandji, Mosyle, Intune für Mac oder ein beliebiges MDM, das App-Konfiguration unterstützt

Windows

Wählen Sie in der Setup-Benutzeroberfläche Exportieren, um eine .reg-Datei zur Verteilung herunterzuladen.

  • Registrierungspfad: HKCU\SOFTWARE\Policies\Claude

  • Bereitstellung: Gruppenrichtlinie, Intune oder ein beliebiges MDM, das .reg-Dateien unterstützt

VDI-Bereitstellungen

In VDI-Umgebungen gelten die gleichen MDM-Schlüssel. Legen Sie sie entweder in Ihrem Golden Image fest (damit jede geklonte Sitzung sie erbt), oder pushen Sie sie zur Laufzeit über das Richtliniensystem Ihres VDI-Brokers.


Plugins einrichten

Plugins erweitern Claudes Funktionen mit rollenspezifischen Bündeln von Fähigkeiten, Befehlen und MCP-Servern. Bei Drittanbieter-Plattformen werden Plugins über eine lokale Verzeichnisbereitstellung auf jedem Computer verteilt.

Platzieren Sie Ihre Plugin-Ordner unter:

  • macOS: /Library/Application Support/Claude/org-plugins/

  • Windows: C:\ProgramData\Claude\org-plugins\

Weitere Informationen zur Plugin-Struktur und -Verwaltung finden Sie unter Claude Cowork mit Drittanbieter-Plattformen erweitern.

Überprüfen Sie die Installation

Starten Sie Claude Desktop auf einem Testcomputer. Sie sollten Folgendes sehen:

  • Cowork- und Code-Registerkarten in der linken Navigation

  • Keine Chat-Registerkarte (Chat ist in dieser Bereitstellung nicht verfügbar)

  • Die Option, sich über Gateway oder Ihren Inference-Anbieter anzumelden

Wenn Benutzer beim Start einen Fehler sehen, überprüfen Sie, dass der Schlüssel inferenceProvider gesetzt ist und dass die Anmeldedaten des Anbieters gültig sind. Verwenden Sie Konsolenprotokolle unter macOS oder Ereignisanzeige unter Windows für tiefere Fehlersuche.


Konfigurationsschlüssel-Referenz

Die folgenden Tabellen behandeln jeden verfügbaren MDM-Schlüssel ab April 2026. Alle Schlüssel sind optional, sofern nicht anders angegeben. Wenden Sie sich für die aktuelle Liste und alle Ergänzungen an Ihren Kontobeauftragten.

Inferenzeinstellungen

Schlüssel

Typ

Beschreibung

inferenceProvider

string

Wählt das Inferenz-Backend aus. Das Setzen dieses Schlüssels aktiviert den Third-Party-Plattformmodus. Werte: bedrock, vertex, foundry, gateway.

inferenceGatewayBaseUrl

string

Gateway-Basis-URL. Erforderlich, wenn provider = gateway.

inferenceGatewayApiKey

string

API-Schlüssel für das Gateway. Erforderlich, wenn provider = gateway.

inferenceGatewayAuthScheme

string

Wie die Gateway-Anmeldedaten gesendet werden (auto / x-api-key / bearer).

inferenceGatewayHeaders

string (JSON-Array von "Name: Value"-Zeichenketten)

Optionale zusätzliche HTTP-Header, die bei jeder Inferenzanfrage an Ihr Gateway gesendet werden.

inferenceVertexProjectId

string

GCP-Projekt-ID. Erforderlich, wenn provider = vertex.

inferenceVertexRegion

string

GCP-Region. Erforderlich, wenn provider = vertex.

inferenceVertexCredentialsFile

string

Absoluter Pfad zu einer Service-Account-JSON- oder ADC-Datei. Keine Tilde oder Umgebungsvariablenerweiterung. Erforderlich, wenn provider = vertex.

inferenceVertexBaseUrl

string

Überschreiben Sie den Vertex AI-Endpunkt (z. B. Private Service Connect). Lassen Sie ungesetzt, um den öffentlichen regionalen Endpunkt zu verwenden.

inferenceVertexOAuthClientId

string

OAuth-Client-ID für eine interaktive Google-Anmeldung pro Benutzer als Alternative zu einer gemeinsamen Service-Account-Datei.

inferenceVertexOAuthClientSecret

string

OAuth-Client-Geheimnis, das mit der obigen Client-ID gekoppelt ist.

inferenceVertexOAuthScopes

string (JSON-Array von Scope-Zeichenketten)

JSON-String-Array von OAuth-Bereichen zum Anfordern. Standardmäßig der für Vertex-Vorhersage erforderliche Bereich.

inferenceBedrockRegion

string

AWS-Region. Erforderlich, wenn provider = bedrock.

inferenceBedrockBearerToken

string

AWS-Bearer-Token. Erforderlich, wenn provider = bedrock.

inferenceBedrockBaseUrl

string

Bedrock-Endpunkt überschreiben (z. B. VPC-Schnittstellenendpunkt oder LLM-Gateway). Lassen Sie diesen Wert ungesetzt, um den öffentlichen regionalen Endpunkt zu verwenden.

inferenceBedrockProfile

string

AWS-benanntes Profil aus ~/.aws/config. Verwenden Sie dieses, wenn Anmeldedaten von AWS CLI, SSO oder einem Enterprise-Anmeldedatenprozess verwaltet werden.

inferenceBedrockAwsDir

string

Absoluter Pfad zum Verzeichnis mit AWS-Konfigurations-/Anmeldedatendateien, falls nicht das Standard-~/.aws. Wird in die Sandbox kopiert, damit das benannte Profil dort aufgelöst wird.

inferenceFoundryResource

string

Azure AI Foundry-Ressourcenname. Erforderlich, wenn provider = foundry.

inferenceFoundryApiKey

string

Azure AI Foundry API-Schlüssel. Erforderlich, wenn provider = foundry.

inferenceModels

string

JSON-Array von Modell-IDs oder Aliasen (sonnet, opus, haiku). Der erste Eintrag ist die Standardeinstellung der Auswahl. Erforderlich für Vertex, Bedrock und Foundry.

inferenceCredentialHelper

string

Absoluter Pfad zu einer ausführbaren Datei, deren Standardausgabe die Anmeldedaten für Inferenz ist. Wird auf dem Host beim Sitzungsstart ausgeführt.

inferenceCredentialHelperTtlSec

integer

Wie lange (in Sekunden) die Helfer-Ausgabe zwischengespeichert werden soll. Standard: 3600.

Bereitstellung und automatische Aktualisierung

Schlüssel

Typ

Beschreibung

deploymentOrganizationUuid

string

Stabile UUID, die diese Bereitstellung identifiziert. Begrenzt lokalen Speicher und Telemetrie.

autoUpdaterEnforcementHours

integer

Wenn gesetzt, erzwingt eine ausstehende Aktualisierung nach dieser Anzahl von Stunden unabhängig von der Benutzeraktivität. Wenn nicht gesetzt, verwendet die App ein 72-Stunden-Fenster, verzögert aber während der Benutzeraktivität.

disableAutoUpdates

boolean

Verhindert, dass die App auf Updates prüft und diese herunterlädt. Die App bleibt auf ihrer installierten Version, bis sie auf andere Weise aktualisiert wird.

Telemetrie

Schlüssel

Typ

Beschreibung

disableEssentialTelemetry

boolean

Blockiert Absturz- und Fehlerberichte sowie Leistungs-Timing-Daten, die an Anthropic gesendet werden.

disableNonessentialTelemetry

boolean

Blockiert Produktnutzungsanalysen – Funktionsnutzung, Navigationsmuster, UI-Aktionen.

disableNonessentialServices

boolean

Blockiert Connector-Favicons (die MCP-Hostnamen preisgeben) und die Artifact-Preview-Sandbox. Connectors fallen auf Buchstabensymbole zurück; Artefakte werden nicht gerendert.

otlpEndpoint

Zeichenkette

Basis-URL Ihres OTLP-Collectors. Wenn gesetzt, exportieren Sitzungen Protokolle und Metriken (Eingabeaufforderungen, Werkzeugaufrufe, Token-Zählungen). Der Endpunkt-Host wird automatisch zur Allowlist des Sandbox-Netzwerks hinzugefügt.

otlpProtocol

Zeichenkette

http/protobuf (Standard), http/json oder grpc.

otlpHeaders

Zeichenkette

Komma-getrennte Schlüssel=Wert-Paare, die bei jeder OTLP-Anfrage gesendet werden (Standard-Format OTEL_EXPORTER_OTLP_HEADERS).

MCP, Plugins und Tools

Schlüssel

Typ

Beschreibung

isDesktopExtensionEnabled

Boolesch

Benutzern erlauben, lokale Desktop-Erweiterungen (.dxt oder .mcpb) zu installieren.

isDesktopExtensionDirectoryEnabled

Boolesch

Zeige das Anthropic-Erweiterungsverzeichnis in der Connectors-Benutzeroberfläche.

isDesktopExtensionSignatureRequired

Boolesch

Desktop-Erweiterungen ablehnen, die nicht von einem vertrauenswürdigen Herausgeber signiert sind.

isLocalDevMcpEnabled

Boolesch

Benutzern erlauben, ihre eigenen lokalen MCP-Server hinzuzufügen. Wenn falsch, sind nur Server aus der verwalteten Liste verfügbar.

isClaudeCodeForDesktopEnabled

Boolesch

Zeige die Registerkarte Code (terminalbasierte Codierungssitzungen). Sitzungen werden auf dem Host ausgeführt, nicht in der VM.

managedMcpServers

Zeichenkette

JSON-Array von Remote-MCP-Serverkonfigurationen. Jeder Eintrag erfordert Name und URL. Optional: Transport (http oder sse), Header, OAuth, toolPolicy.

disabledBuiltinTools

Zeichenkette

JSON-Array von Werkzeugnamen, die aus der Werkzeugliste des Agenten entfernt werden sollen. Siehe den MCP-Artikel für die vollständige Werkzeugliste.

coworkEgressAllowedHosts

Zeichenkette (JSON-Array von Hostnamen)

Absolute Pfade, die Benutzer als Arbeitsbereichsordner anhängen dürfen. Führendes ~ wird zum Home-Verzeichnis des Benutzers erweitert. Wenn gesetzt, werden alle Pfade außerhalb dieser Liste abgelehnt.

Arbeitsbereich und Nutzungsgrenzen

Schlüssel

Typ

Beschreibung

allowedWorkspaceFolders

Zeichenkette

JSON-Array von absoluten Pfaden, die der Benutzer als Arbeitsbereichsordner anhängen darf. Führendes ~ wird zum Benutzer-Home-Verzeichnis erweitert. Nicht gesetzt = unbegrenzt.

inferenceMaxTokensPerWindow

Ganzzahl

Gesamte Ein- und Ausgabe-Token, die pro Schiebefenster zulässig sind, bevor sendMessage abgelehnt wird. Erzwungen im Desktop-Hauptprozess. Nicht gesetzt = keine Obergrenze.

inferenceTokenWindowHours

Ganzzahl

Schiebefensterlänge für die Token-Obergrenze. Max. 720h (30 Tage). Der Zähler wird zurückgesetzt, wenn now >= windowStartMs + windowHours×3600×1000.


Nächste Schritte

Hat dies deine Frage beantwortet?