Zum Hauptinhalt springen

Claude für Excel, PowerPoint und Word mit Drittanbieter-Plattformen nutzen

Heute aktualisiert

Wenn Ihre Organisation AWS Bedrock, Google Cloud Vertex AI, Azure AI Foundry oder ein LLM-Gateway verwendet, um auf Claude zuzugreifen, können Sie die Add-ins Claude für Excel, Claude für PowerPoint und Claude für Word ohne Claude-Konto nutzen. Das Add-in verbindet sich über die Infrastruktur Ihrer Organisation, sodass Ihre Anfragen und Antworten innerhalb Ihrer bestehenden Vertrauensgrenze bleiben.

Es gibt vier Verbindungspfade, je nachdem, wie Ihre Organisation auf Claude zugreift:

  • LLM-Gateway: Das Add-in sendet Anfragen an Ihr Gateway (LiteLLM, Portkey, Kong usw.), das diese an den Anbieter Ihrer Wahl weiterleitet. Dies ist das gleiche Muster, das Claude Code verwendet. Wenn Ihre Organisation Claude Code bereits über ein LLM-Gateway ausführt, können Sie die Office-Add-ins auf denselben Endpunkt verweisen – es ist keine neue Infrastruktur erforderlich.

  • Bedrock direkt: Das Add-in authentifiziert sich über Microsoft Entra ID und ruft AWS Bedrock direkt auf, ohne Gateway dazwischen.

  • Vertex AI direkt: Das Add-in authentifiziert sich über Google OAuth und ruft Vertex AI direkt auf.

  • Foundry direkt: Das Add-in authentifiziert sich direkt über Ihre Azure AI Foundry-Ressource mit ihrem API-Schlüssel.

Ihr IT-Administrator wählt den Pfad während der Bereitstellung aus. Als Endbenutzer ist die Erfahrung unabhängig davon, welchen Pfad Ihre Organisation verwendet, gleich.


Anforderungen

Die Anforderungen variieren je nach Verbindungspfad.

Alle Pfade:

  • Claude für Excel, Claude für PowerPoint oder Claude für Word installiert (aus Microsoft AppSource oder von Ihrem Administrator bereitgestellt)

  • Microsoft 365 mit Entra ID (für Admin-Zustimmung und bei direkten Cloud-Pfaden für Token-Ausstellung)

LLM-Gateway:

  • Eine Gateway-URL und ein API-Token von Ihrem IT-Team

Bedrock direkt:

  • Ein AWS-Konto mit aktiviertem Claude-Modellzugriff in der Zielregion

  • Ein IAM-OIDC-Identitätsanbieter und eine Rolle, die so konfiguriert ist, dass sie Microsoft Entra ID-Token vertraut

Vertex AI direkt:

  • Ein Google Cloud-Projekt mit aktivierter Vertex AI API und Claude-Modellzugriff in der Zielregion

  • Ein Google OAuth-Client, der mit dem Redirect-URI des Add-ins konfiguriert ist

Foundry direkt:

  • Eine Azure AI Foundry-Ressource mit mindestens einem bereitgestellten Claude-Modell (Claude Opus 4.6, Opus 4.5, Sonnet 4.6 oder Sonnet 4.5)

  • Bereitstellungsnamen müssen als Standard-Modell-IDs belassen werden (z. B. claude-opus-4-6); benutzerdefinierte Bereitstellungsnamen werden noch nicht unterstützt. Der Adapter prüft nach Modell-ID, daher wird eine umbenannte Bereitstellung nicht gefunden.

  • Der API-Schlüssel der Ressource aus Azure Portal → Ihre Foundry-Ressource → Keys and Endpoint → KEY 1

Das IT-Team Ihrer Organisation verwaltet diese Ressourcen. Wenn Sie nicht über die erforderlichen Anmeldedaten verfügen, kontaktieren Sie das Team – Anthropic kann diese nicht für Sie bereitstellen oder zurücksetzen.


Netzwerk-Allowlist

Das Add-in muss auf bestimmte Domains zugreifen, um zu funktionieren. Welche Domains erforderlich sind, hängt davon ab, ob Ihre Organisation die Anthropic API direkt (1P) oder eine Drittanbieter-Plattform (3P) verwendet. Teilen Sie die entsprechende Tabelle mit Ihrem Netzwerk- oder Sicherheitsteam, damit diese diese Domains auf die Allowlist setzen können.

Wichtig: In allen Konfigurationen – einschließlich Drittanbieter – werden Ihre Anfragen und Claudes Antworten nur an Ihren gewählten Inference-Anbieter übertragen (Ihr Gateway, Bedrock, Vertex AI oder Azure AI Foundry). Die unten aufgeführten Domains, die auf Anthropic verweisen (wie pivot.claude.ai), dienen der Benutzeroberfläche des Add-ins, der Feature-Konfiguration und der operativen Telemetrie. Sie enthalten keine Anfrage- oder Antworteninhalte.

Anthropic API (1P)

Verwenden Sie diese Tabelle, wenn sich Personen in Ihrer Organisation mit einem Claude-Konto anmelden und der Inference zu api.anthropic.com erfolgt.

Domain

Erforderlich wenn

Zweck

pivot.claude.ai

Immer

Add-in-Host. Stellt die Task-Pane-Benutzeroberfläche bereit und leitet Analysen, Symbolsuche, Skill-Downloads und Telemetrie weiter.

claude.ai

Immer

Anthropic OAuth-Anmeldung und Feature-Flag-Evaluierung.

api.anthropic.com

Immer

Claude Inference API, Datei-Uploads, Code-Ausführungs-Container und die MCP-Connector-Registry.

appsforoffice.microsoft.com

Immer

Microsoft Office.js Runtime-Skript. Erforderlich für jedes Office-Add-in.

o1158394.ingest.us.sentry.io

Optional

Absturz- und Fehlerberichterstattung. Das Blockieren dieser Domain beeinträchtigt nur die Diagnose; das Add-in funktioniert weiterhin.

mcp-proxy.anthropic.com

Bei Verwendung von MCP-Konnektoren

Proxy für MCP-Connector-Tool-Aufrufe.

bridge.claudeusercontent.com

Bei Verwendung von App-übergreifender Arbeit

WebSocket-Bridge für die App-übergreifende Arbeitsfunktion.

Drittanbieter-Plattformen (3P)

Verwenden Sie diese Tabelle, wenn sich Personen in Ihrer Organisation mit Microsoft Entra ID anmelden und der Rückschluss zu Ihrem LLM-Gateway, Bedrock oder Vertex AI erfolgt.

Domäne

Erforderlich wenn

Zweck

pivot.claude.ai

Immer

Add-in-Host. Stellt die Aufgabenbereich-UI bereit und leitet Analysen, Symbolsuche und Telemetrie weiter.

claude.ai/api/

Immer

Evaluierung von Feature-Flags. Keine Anmeldung; das Add-in ruft nur seine Konfiguration von hier ab.

appsforoffice.microsoft.com

Immer

Microsoft Office.js-Laufzeitskript (erforderlich für jedes Office-Add-in).

login.microsoftonline.com

Immer

Microsoft Entra ID-Anmeldung über verschachtelte App-Authentifizierung. Liest die vom Administrator bereitgestellte Gateway-Konfiguration und stellt Token für direkte Cloud-Authentifizierung aus.

o1158394.ingest.us.sentry.io

Optional

Absturz- und Fehlerberichterstattung. Das Blockieren beeinträchtigt nur die Diagnose; das Add-in funktioniert weiterhin.

Ihre LLM-Gateway-URL

Bei Verwendung eines LLM-Gateways

Das LLM-Gateway Ihrer Organisation (LiteLLM, Portkey, Kong usw.). Der Rückschluss erfolgt hier statt bei api.anthropic.com.

sts.amazonaws.com

Bei direkter Verwendung von Bedrock

AWS STS. Tauscht das Entra ID-Token gegen temporäre Bedrock-Anmeldedaten aus.

bedrock-runtime.<region>.amazonaws.com

Bei direkter Verwendung von Bedrock

Bedrock-Rückschluss-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte AWS-Region (z. B. us-east-1).

accounts.google.com

Bei direkter Verwendung von Vertex AI

Google OAuth-Zustimmungsbildschirm.

oauth2.googleapis.com

Bei direkter Verwendung von Vertex AI

Google OAuth-Token-Austausch und -Aktualisierung.

aiplatform.googleapis.com

Bei direkter Verwendung von Vertex AI

Globaler Vertex AI-Rückschluss-Endpunkt.

<region>-aiplatform.googleapis.com

Bei direkter Verwendung von Vertex AI

Regionaler Vertex AI-Rückschluss-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte GCP-Region (z. B. us-east5).

<resource>.services.ai.azure.com

Bei direkter Verwendung von Foundry

Azure AI Foundry-Rückschluss-Endpunkt. Ersetzen Sie <resource> durch Ihren Ressourcennamen.


Bereitstellen des Add-Ins für die Nutzung durch Dritte (IT-Administratoren)

Verwenden Sie das Plugin claude-in-office, um das Add-In in Ihrer Organisation zu konfigurieren und bereitzustellen. Dieses Tool verwaltet die Bereitstellung von Cloud-Ressourcen (bei Verwendung von Bedrock oder Vertex AI direkt), generiert das Add-In-Manifest und erhält die Admin-Zustimmung in einem einzigen geführten Workflow.

Verwenden Sie den Setup-Assistenten

Installieren Sie das Plugin und führen Sie den interaktiven Setup-Assistenten aus:

claude plugin marketplace add anthropics/financial-services-plugins
claude plugin install claude-in-office@financial-services-plugins
/claude-in-office:setup

Der Assistent führt Sie durch Ihren Verbindungspfad:

  • LLM-Gateway: Erfasst Ihre Gateway-URL und Ihr Token, bestimmt das zu verwendende API-Format, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

  • Bedrock direkt: Erstellt den IAM-OIDC-Identitätsanbieter und die Rolle, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

  • Vertex AI direkt: Führt Sie durch die Erstellung des Google-OAuth-Clients, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

  • Foundry direkt: Erfasst azure_resource_name und azure_api_key und generiert dann das Manifest.

Wenn der Assistent abgeschlossen ist, ist das Add-In bereit für die mandantenweite Bereitstellung.

Hinweis: Die Bedrock- und Vertex-AI-Pfade erfordern Node.js für die Manifest-Generierung und -Validierung. Der Assistent prüft dies und fordert Sie auf, es zu installieren, falls es fehlt.

Sie können die folgenden Befehle in einer claude-in-office-Sitzung verwenden:

Befehl

Funktion

/claude-in-office:setup

Interaktiver Assistent – stellt Cloud-Ressourcen bereit, Admin-Zustimmung, schreibt Manifest

/claude-in-office:manifest

Generiert das angepasste Add-In-Manifest XML

/claude-in-office:consent

Generiert die Azure-Admin-Zustimmungs-URL für die App-Registrierung des Add-Ins

/claude-in-office:update-user-attrs

Schreibt benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute

Was der Assistent bereitstellt

Der Assistent automatisiert die Ressourcenerstellung basierend auf Ihrem Verbindungspfad. Hier ist, was er einrichtet:

LLM-Gateway: Keine Cloud-Ressourcen bereitzustellen. Der Assistent erfasst Ihre Gateway-URL und Ihr Token und generiert dann das Manifest.

Bedrock direkt: Erstellt einen IAM-OIDC-Identitätsanbieter, der Microsoft-Entra-ID-Token vertraut, eine Rolle mit bedrock:InvokeModel- und bedrock:InvokeModelWithResponseStream-Berechtigungen und eine Vertrauensrichtlinie, die auf die Anwendungs-ID des Claude-Add-Ins beschränkt ist.

Vertex AI direkt: Führt Sie durch die Erstellung eines Google-OAuth-Clients in der GCP-Konsole (dieser Schritt kann nicht über CLI automatisiert werden), aktiviert die Vertex-AI-API und erfasst die Client-ID und das Geheimnis für das Manifest.

Foundry direkt: Keine Cloud-Ressourcen bereitzustellen; der Assistent erfasst den Ressourcennamen und den API-Schlüssel für das Manifest.

Benutzerspezifische Konfiguration

Wenn einige Werte pro Benutzer variieren – zum Beispiel unterschiedliche Gateway-Token oder unterschiedliche AWS-Rollen für verschiedene Teams – kann der Assistent benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute schreiben. Führen Sie /claude-in-office:update-user-attrs mit den benutzerspezifischen Schlüsseln nach dem ersten Setup aus.

Bereitstellung in Microsoft 365

Nachdem der Assistent Ihr Manifest generiert hat:

  1. Öffnen Sie das Microsoft 365 Admin Center und gehen Sie zu Einstellungen > Integrierte Apps > Benutzerdefinierte Apps hochladen.

  2. Wählen Sie "Office Add-In" als App-Typ aus und laden Sie die Datei manifest.xml hoch.

  3. Wählen Sie aus, wer das Add-In erhält:

    • Wenn alle Benutzer die gleiche Konfiguration verwenden, wählen Sie "Gesamte Organisation" aus.

    • Wenn Sie im vorherigen Schritt benutzerspezifische Attribute geschrieben haben, weisen Sie Bestimmte Benutzer/Gruppen zu, die genau mit denen übereinstimmen, die konfiguriert wurden. Alle anderen würden das Add-In ohne Konfiguration öffnen.

  4. Akzeptieren Sie Berechtigungen und schließen Sie die Bereitstellung ab.

Die Verbreitung an Benutzer dauert bis zu 24 Stunden (normalerweise viel schneller). Das Add-In wird unter Startseite > Add-Ins in Excel, PowerPoint und Word angezeigt, sobald es verfügbar ist.

Hinweis: Beginnen Sie mit einer Pilotgruppe, um zu bestätigen, dass das Add-In funktioniert, und erweitern Sie dann die Zuweisung. Sie können die Zuweisung später ändern, ohne erneut bereitzustellen.

Nach der Bereitstellung des Add-Ins können sich Ihre Benutzer verbinden, indem sie die folgenden Schritte ausführen.


Verbindungsanweisungen für Endbenutzer

LLM-Gateway

  1. Öffnen Sie Excel, PowerPoint oder Word und starten Sie das Claude-Add-In.

  2. Wählen Sie auf dem Anmeldebildschirm "Enterprise-Gateway" aus.

  3. Geben Sie die Gateway-URL und das API-Token ein, die Ihr IT-Team bereitgestellt hat.

    • Gateway-URL: Die HTTPS-Basis-URL Ihres LLM-Proxys (z. B. https://llm-gateway.yourcompany.com).

    • API-Token: Das Bearer-Token, das Ihr Proxy erwartet. Das Add-In sendet dies mit jedem Request im Header Authorization: Bearer <token>.

  4. Das Add-In überprüft die Verbindung, indem es eine Test-Anfrage an das Gateway sendet. Wenn dies erfolgreich ist, sehen Sie die Hauptanwendungserfahrung.

Ihre Anmeldedaten werden lokal im localStorage Ihres Browsers innerhalb des sandboxed iframe des Add-Ins gespeichert. Sie werden nicht mit den Servern von Anthropic synchronisiert. Da das Office-Add-In in einem sandboxed iframe innerhalb der Microsoft-Anwendung ausgeführt wird, kann es Ihren OS-Schlüsselbund nicht so verwenden wie Claude Code – aus diesem Grund sollten Sie nur Gateway-ausgegebene Token eingeben, keine rohen Cloud-Provider-Anmeldedaten.

Bedrock, Vertex AI oder Foundry direkt

  1. Öffnen Sie Excel, PowerPoint oder Word und starten Sie das Claude-Add-in.

  2. Authentifizieren Sie sich mit der Methode Ihres Anbieters:

    1. Bedrock oder Vertex AI: Melden Sie sich mit Ihrem Microsoft-Geschäftskonto an. Das Add-in verwendet Ihr Entra ID-Token zur Authentifizierung bei Ihrem Cloud-Anbieter – es sind keine separaten Cloud-Anmeldedaten erforderlich.

    2. Foundry: Wenn Ihr Administrator den Azure-Ressourcennamen und den API-Schlüssel bereits ausgefüllt hat, verbindet sich das Add-in automatisch. Geben Sie andernfalls die von Ihrem IT-Team bereitgestellten Werte ein und wählen Sie Verbinden.

  3. Das Add-in liest die von Ihrem Administrator bereitgestellte Konfiguration und verbindet sich direkt mit Bedrock oder Vertex AI.

Wenn bei der Anmeldung ein Fehler auftritt, bestätigen Sie mit Ihrem IT-Team, dass Ihr Konto in der dem Add-in zugewiesenen Gruppe enthalten ist.

Verbindung ändern oder aktualisieren

Wenn Ihr API-Token abläuft oder Ihr IT-Team Ihnen eine neue URL gibt, gehen Sie zu "Einstellungen" in der Add-in-Seitenleiste, geben Sie die neuen Werte ein und wählen Sie "Verbindung testen."


Gateway-Anforderungen für IT-Teams

Die Office-Add-ins unterstützen die gleichen drei API-Formate wie Claude Code. Legen Sie gateway_api_format in Ihrem Add-in-Manifest fest, um dem Add-in mitzuteilen, welches Format Ihr Gateway spricht.

CORS-Anforderungen

Der Aufgabenbereich des Add-ins wird von https://pivot.claude.ai geladen. Jede Anfrage an Ihr Gateway ist daher ursprungsübergreifend, und der Browser verwirft automatisch alle Antworten ohne CORS-Header.

Ihr Gateway muss Access-Control-Allow-Origin: https://pivot.claude.ai (oder *) bei jeder Antwort zurückgeben: GET, POST, OPTIONS und alle Fehlerantworten. Das Festlegen nur beim OPTIONS-Preflight ist nicht ausreichend. Geben Sie beim Preflight Access-Control-Allow-Headers: * zurück.

Erforderliche Endpunkte

Die Endpunkte, die Ihr Gateway verfügbar machen muss, hängen davon ab, welches API-Format es spricht. Legen Sie gateway_api_format in Ihrem Manifest fest, um es abzugleichen.

gateway_api_format: anthropic (Standard)

Endpunkt

Beschreibung

POST /v1/messages

Senden Sie Nachrichten an Claude. Unterstützt sowohl Streaming- als auch Nicht-Streaming-Antworten.

GET /v1/models

Verfügbare Modelle auflisten.

gateway_api_format: bedrock

Endpunkt

Beschreibung

POST /model/{model-id}/invoke

Senden Sie eine Nachricht und erhalten Sie eine vollständige Antwort.

POST /model/{model-id}/invoke-with-response-stream

Senden Sie eine Nachricht und erhalten Sie eine Streaming-Antwort.

Native Bedrock InvokeModel-Durchleitung. gateway_url muss auf das Durchleitungspräfix verweisen (z. B. https://litellm.example.com/bedrock).

gateway_api_format: vertex

Endpunkt

Beschreibung

POST /projects/{project}/locations/{region}/publishers/anthropic/models/{model-id}:rawPredict

Senden Sie eine Nachricht und erhalten Sie eine vollständige Antwort.

POST /projects/{project}/locations/{region}/publishers/anthropic/models/{model-id}:streamRawPredict

Senden Sie eine Nachricht und erhalten Sie eine Streaming-Antwort.

Native Vertex-Durchleitung. gateway_url muss das API-Versionssegment enthalten (z. B. https://litellm.example.com/vertex_ai/v1). Erfordert auch gcp_project_id und gcp_region, damit das Add-in den Pfad erstellen kann.

Erforderlicher Header

Für anthropic und vertex Formate muss das Gateway den anthropic-version Request-Header an den Upstream-Anbieter weiterleiten.

Für das bedrock Format legt das SDK anthropic_version stattdessen in den Request-Body – das Gateway muss es dort bewahren.

Das Nichtweiterleiten des Headers oder das Nichtbewahren des Body-Feldes kann zu eingeschränkter Funktionalität oder zum Ausfall des Add-ins führen.

Autorisierungs-Header

Das Add-in kann das Autorisierungs-Token Ihres Gateways entweder im x-api-key oder im Authorization Header senden.

Modellermittlung

Bei der Anmeldung versucht das Add-in, verfügbare Claude-Modelle über GET /v1/models zu ermitteln. Wenn Ihr Gateway keine Modellliste unter diesem Pfad verfügbar macht, fordert das Add-in den Benutzer auf, eine Modell-ID manuell einzugeben.

Unterschiede zum Claude Code Gateway-Setup

Aspekt

Claude Code

Claude für Excel, PowerPoint und Word

Anmeldedatenspeicherung

OS-Schlüsselbund oder Umgebungsvariablen

Browser-localStorage (Sandbox-iframe)

Authentifizierungskonfiguration

Umgebungsvariablen, Einstellungsdatei, Hilfsskripte

Manuelle Eingabe in der Add-in-Benutzeroberfläche (Gateway), Entra ID (direkte Cloud) oder Azure API-Schlüssel (Foundry)

Token-Aktualisierung

Unterstützt Hilfsskripte für die Rotation

Manuelle Neueingabe in den Einstellungen (Gateway) oder automatisch über Entra ID (direkte Cloud)

Benutzerdefinierte Modellnamen

Konfigurierbar über Umgebungsvariablen

In v1 nicht konfigurierbar


Beispiel-Gateway-Konfiguration mit LiteLLM

Warnung: Die LiteLLM PyPI-Versionen 1.82.7 und 1.82.8 waren mit Malware zum Diebstahl von Anmeldedaten kompromittiert. Installieren Sie diese Versionen nicht. Falls Sie diese bereits installiert haben:

  • Entfernen Sie das Paket

  • Rotieren Sie alle Anmeldedaten auf betroffenen Systemen

  • Befolgen Sie die Abhilfeschritte in BerriAI/litellm#24518

LiteLLM ist ein Proxy-Service eines Drittanbieters. Anthropic unterstützt, wartet oder prüft die Sicherheit oder Funktionalität von LiteLLM nicht. Diese Anleitung wird zu Informationszwecken bereitgestellt und kann veraltet sein. Verwenden Sie sie nach eigenem Ermessen.

Viele Organisationen verwenden LiteLLM als ihr Gateway. Nachfolgend finden Sie eine minimale litellm_config.yaml zum Weiterleiten von Office-Add-in-Anfragen an Anthropic, Bedrock oder Vertex.

Weiterleitung direkt an Anthropic

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: claude-sonnet-4-5-20250929
api_key: os.environ/ANTHROPIC_API_KEY

litellm_settings:
drop_params: true

Weiterleitung an Amazon Bedrock

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: bedrock/anthropic.claude-sonnet-4-5-20250929-v1:0
aws_region_name: us-east-1

litellm_settings:
drop_params: true

Weiterleitung an Google Cloud Vertex AI

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: vertex_ai/claude-sonnet-4-5-20250929
vertex_project: your-gcp-project-id
vertex_location: us-east5

litellm_settings:
drop_params: true

Weiterleitung an Azure

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: azure_ai/claude-sonnet-4-5-20250929
api_base: https://your-resource.services.ai.azure.com/anthropic
api_key: os.environ/AZURE_API_KEY
extra_headers:
x-api-key: os.environ/AZURE_API_KEY

litellm_settings:
drop_params: true

Detaillierte Setupanweisungen finden Sie in der LiteLLM-Dokumentation zum Anthropic-Format.


Was Anthropic erfasst

Auch wenn die Inferenz über Ihre eigene Infrastruktur erfolgt, kommuniziert das Add-in mit pivot.claude.ai, um seine Benutzeroberfläche zu laden, und mit claude.ai/api/, um Feature-Flags zu evaluieren. Diese Verbindungen übertragen operative Telemetrie – wie z. B. welche Funktionen verwendet werden, Leistungszeitpunkte und Fehlerquoten – damit Anthropic das Add-in-Erlebnis pflegen und verbessern kann. Sie übertragen nicht Ihre Eingabeaufforderungen oder Claudes Antworten.

Anthropic erfasst Informationen gemäß den Bedingungen von AWS Bedrock, Google Cloud Vertex AI oder Microsoft Azure, konsistent mit Anthropics Vereinbarungen mit Kunden. Anthropic hat keinen Zugriff auf die AWS-, Google- oder Microsoft-Instanz eines Kunden, einschließlich der darin enthaltenen Eingabeaufforderungen oder Ausgaben. Anthropic trainiert keine generativen Modelle mit solchen Inhalten und verwendet sie nicht für andere Zwecke. Anthropic kann auf Metadaten – wie Werkzeugnutzung, Token-Zählungen und ähnliche Elemente – zugreifen und solche Metadaten für Analyse- und Produktverbesserungszwecke verwenden.

Für Details darüber, was das Gateway oder der Cloud-Anbieter Ihrer Organisation protokolliert, wenden Sie sich an Ihr IT-Team.

Um einen vollständigen Audit-Trail – einschließlich Eingabeaufforderungen, Werkzeugeingaben, Werkzeugausgaben und Dokumentreferenzen – zu Ihrer eigenen Infrastruktur zu leiten, siehe Konfigurieren Sie einen benutzerdefinierten OpenTelemetry-Collector für Office-Agenten.


Wie sich dies vom Anmelden mit einem Claude-Konto unterscheidet

Wenn Sie sich mit einem Claude-Konto anmelden, verbinden sich die Add-ins direkt mit Anthropic. Wenn Sie sich über eine Plattform eines Drittanbieters verbinden, senden die Add-ins Inferenzanfragen stattdessen an die Infrastruktur Ihrer Organisation, und Ihr IT-Team kontrolliert, wie dieser Datenverkehr weitergeleitet und protokolliert wird.

Einige Funktionen, die ein Claude-Konto erfordern, sind über Plattformen von Drittanbietern noch nicht verfügbar, aber wir arbeiten daran, Unterstützung hinzuzufügen:

Funktion

Claude-Konto

Plattform eines Drittanbieters

Chatten Sie mit Ihrer Tabelle, Präsentation oder Ihrem Dokument

Lesen und bearbeiten Sie Zellen, Folien, Formeln und Dokumenttext

Konnektoren (S&P, FactSet usw.)

Demnächst verfügbar

Übergreifend in Apps arbeiten

Fähigkeiten

Demnächst verfügbar

Datei-Uploads

Websuche

Nur Vertex

Wenn Ihr Team diese Funktionen benötigt, sprechen Sie mit Ihrem Claude-Administrator darüber, welcher Anmeldepfad zu Ihrer Organisation passt.


Fehlerbehebung

"Verbindung abgelehnt" oder Netzwerkfehler

Die Gateway-URL oder der Cloud-Endpunkt ist vom Netzwerk des Benutzers nicht erreichbar. Überprüfen Sie, ob die URL korrekt ist, der Dienst ausgeführt wird und keine Firewall- oder VPN-Einschränkungen die Verbindung blockieren. Überprüfen Sie den Abschnitt Netzwerk-Allowlist oben, um zu bestätigen, dass alle erforderlichen Domänen zulässig sind.

"401 Unauthorized" oder "Ungültiges Token"

Das Authentifizierungstoken ist ungültig oder abgelaufen. Bestätigen Sie das Token bei Gateways mit Ihrem IT-Team. Überprüfen Sie bei direkten Cloud-Verbindungen, ob das Entra ID-Konto des Benutzers in der zugewiesenen Gruppe vorhanden ist und ob das OIDC-Vertrauen oder der OAuth-Client korrekt konfiguriert ist. Generieren Sie den Schlüssel für Foundry im Azure Portal → Schlüssel und Endpunkt neu.

"403 Forbidden" oder "Zugriff verweigert"

Das Token ist gültig, hat aber nicht die richtigen Berechtigungen. Überprüfen Sie bei Bedrock, ob die IAM-Rolle bedrock:InvokeModel-Berechtigungen hat. Überprüfen Sie bei Vertex, ob das Dienstkonto aiplatform.endpoints.predict-Berechtigungen hat. Überprüfen Sie bei Gateways den Umfang des Tokens mit Ihrem IT-Administrator. Überprüfen Sie bei Foundry die Netzwerkregeln der Ressource, oder bestätigen Sie, dass der Schlüssel zur richtigen Ressource gehört.

404 Nicht gefunden

Das Add-In konnte den erwarteten API-Pfad nicht erreichen. Überprüfen Sie bei Gateways, ob die URL die Basis-URL ist (z. B. https://litellm-server:4000)—don't — fügen Sie /v1/messages nicht in das URL-Feld ein.

500 oder andere Serverfehler

Das Gateway oder der Cloud-Anbieter ist auf einen internen Fehler gestoßen. Überprüfen Sie Ihre Gateway-Protokolle (z. B. docker logs litellm bei Verwendung von LiteLLM) auf Fehler des Upstream-Anbieters. Versuchen Sie die Anfrage erneut, und wenden Sie sich an Ihren IT-Administrator, wenn das Problem weiterhin besteht.

"Keine Modelle verfügbar"

Das Add-In konnte Claude-Modelle nicht finden. Ihr Gateway stellt möglicherweise keine Modellliste unter GET /v1/models bereit. Ihr IT-Team kann das Gateway entweder so konfigurieren, dass es eine Modellliste bereitstellt, oder Ihnen eine bestimmte Modell-ID zum manuellen Eingeben geben. Bestätigen Sie bei Bedrock oder Vertex, dass mindestens ein Claude-Modell (Claude Sonnet 4.5 oder später) in Ihrem Konto und Ihrer Region aktiviert ist. Bestätigen Sie bei Foundry, dass mindestens ein Claude-Modell in der Ressource bereitgestellt ist (Modellkatalog).

Streaming-Antworten schlagen fehl oder hängen fest

Überprüfen Sie, ob Ihr Gateway Server-Sent Events (SSE) Pass-Through unterstützt. Einige Proxy-Konfigurationen entfernen oder puffern SSE-Verbindungen, was verhindert, dass Streaming-Antworten das Add-In erreichen.

Eine Funktion, die ich erwartet habe, ist nicht verfügbar

Konnektoren, Fähigkeiten, Datei-Uploads und App-übergreifendes Arbeiten sind über Drittanbieter-Plattformen noch nicht verfügbar. Wenn Sie diese benötigen, fragen Sie Ihren Administrator, ob Sie sich stattdessen mit einem Claude-Konto anmelden können.

Hat dies deine Frage beantwortet?