Zum Hauptinhalt springen

Claude für Excel und PowerPoint mit Drittanbieter-Plattformen verwenden

Heute aktualisiert

Wenn Ihre Organisation AWS Bedrock, Google Cloud Vertex AI oder ein LLM-Gateway verwendet, um auf Claude zuzugreifen, können Sie die Add-Ins Claude für Excel und Claude für PowerPoint ohne Claude-Konto verwenden. Das Add-In verbindet sich über die Infrastruktur Ihrer Organisation, sodass Ihre Anfragen und Antworten innerhalb Ihrer bestehenden Vertrauensgrenze bleiben.

Es gibt drei Verbindungspfade, je nachdem, wie Ihre Organisation auf Claude zugreift:

  • LLM-Gateway: Das Add-In sendet Anfragen an Ihr Gateway (LiteLLM, Portkey, Kong usw.), das diese an den Anbieter Ihrer Wahl weiterleitet. Dies ist das gleiche Muster, das von Claude Code verwendet wird. Wenn Ihre Organisation bereits Claude Code über ein LLM-Gateway ausführt, können Sie die Office-Add-Ins auf denselben Endpunkt verweisen – es ist keine neue Infrastruktur erforderlich.

  • Bedrock direkt: Das Add-In authentifiziert sich über Microsoft Entra ID und ruft AWS Bedrock direkt auf, ohne Gateway dazwischen.

  • Vertex AI direkt: Das Add-In authentifiziert sich über Google OAuth und ruft Vertex AI direkt auf.

Ihr IT-Administrator wählt den Pfad während der Bereitstellung aus. Als Endbenutzer ist die Erfahrung unabhängig davon, welchen Pfad Ihre Organisation verwendet, gleich.


Anforderungen

Die Anforderungen variieren je nach Verbindungspfad.

Alle Pfade:

  • Claude für Excel oder Claude für PowerPoint installiert (von Microsoft AppSource oder von Ihrem Administrator bereitgestellt)

  • Microsoft 365 mit Entra ID (für Admin-Zustimmung und bei direkten Cloud-Pfaden für Token-Ausstellung)

LLM-Gateway:

  • Eine Gateway-URL und ein API-Token von Ihrem IT-Team

Bedrock direkt:

  • Ein AWS-Konto mit aktiviertem Claude-Modellzugriff in der Zielregion

  • Ein IAM-OIDC-Identitätsanbieter und eine Rolle, die so konfiguriert ist, dass sie Microsoft Entra ID-Token vertraut

Vertex AI direkt:

  • Ein Google Cloud-Projekt mit aktivierter Vertex AI API und Claude-Modellzugriff in der Zielregion

  • Ein Google OAuth-Client, der mit dem Redirect-URI des Add-Ins konfiguriert ist

Das IT-Team Ihrer Organisation verwaltet diese Ressourcen. Wenn Sie die benötigten Anmeldedaten nicht haben, kontaktieren Sie sie – Anthropic kann diese nicht bereitstellen oder zurücksetzen.


Netzwerk-Allowlist

Das Add-In muss bestimmte Domains erreichen, um zu funktionieren. Welche Domains erforderlich sind, hängt davon ab, ob Ihre Organisation die Anthropic API direkt (1P) oder eine Drittanbieter-Plattform (3P) verwendet. Teilen Sie die entsprechende Tabelle mit Ihrem Netzwerk- oder Sicherheitsteam, damit diese diese Domains auf die Allowlist setzen können.

Wichtig: In allen Konfigurationen – einschließlich Drittanbieter – werden Ihre Anfragen und Claudes Antworten nur an Ihren gewählten Inference-Anbieter (Ihr Gateway, Bedrock oder Vertex AI) übertragen. Die unten aufgeführten Domains, die auf Anthropic verweisen (wie pivot.claude.ai), dienen der Benutzeroberfläche des Add-Ins, der Feature-Konfiguration und der operativen Telemetrie. Sie enthalten keine Anfrage- oder Antworteninhalte.

Anthropic API (1P)

Verwenden Sie diese Tabelle, wenn sich Personen in Ihrer Organisation mit einem Claude-Konto anmelden und der Inference zu api.anthropic.com erfolgt.

Domain

Erforderlich wenn

Zweck

pivot.claude.ai

Immer

Add-In-Host. Stellt die Task-Pane-Benutzeroberfläche bereit und leitet Analysen, Symbolsuche, Skill-Downloads und Telemetrie weiter.

claude.ai

Immer

Anthropic OAuth-Anmeldung und Feature-Flag-Evaluierung.

api.anthropic.com

Immer

Claude Inference API, Datei-Uploads, Code-Ausführungs-Container und die MCP-Connector-Registry.

appsforoffice.microsoft.com

Immer

Microsoft Office.js Runtime-Skript. Erforderlich für jedes Office-Add-In.

o1158394.ingest.us.sentry.io

Optional

Absturz- und Fehlerberichterstattung. Das Blockieren beeinträchtigt nur die Diagnose; das Add-In funktioniert weiterhin.

mcp-proxy.anthropic.com

Bei Verwendung von MCP-Connectoren

Proxy für MCP-Connector-Tool-Aufrufe.

bridge.claudeusercontent.com

Bei Verwendung von App-übergreifender Arbeit

WebSocket-Bridge für die App-übergreifende Zusammenarbeit.

Drittanbieter-Plattformen (3P)

Verwenden Sie diese Tabelle, wenn sich Benutzer in Ihrer Organisation mit Microsoft Entra ID anmelden und die Inferenz zu Ihrem LLM-Gateway, Bedrock oder Vertex AI erfolgt.

Domäne

Erforderlich wenn

Zweck

pivot.claude.ai

Immer

Add-in-Host. Stellt die Aufgabenbereich-UI bereit und leitet Analysen, Symbolsuche und Telemetrie weiter.

claude.ai/api/

Immer

Feature-Flag-Evaluierung. Keine Anmeldung erforderlich; das Add-in ruft seine Konfiguration nur von hier ab.

appsforoffice.microsoft.com

Immer

Microsoft Office.js-Laufzeitskript (erforderlich für jedes Office-Add-in).

login.microsoftonline.com

Immer

Microsoft Entra ID-Anmeldung über Nested App Auth. Liest die vom Administrator bereitgestellte Gateway-Konfiguration und stellt Token für direkte Cloud-Authentifizierung aus.

o1158394.ingest.us.sentry.io

Optional

Absturz- und Fehlerberichterstattung. Das Blockieren beeinträchtigt nur die Diagnose; das Add-in funktioniert weiterhin.

Ihre LLM-Gateway-URL

Bei Verwendung eines LLM-Gateways

Das LLM-Gateway Ihrer Organisation (LiteLLM, Portkey, Kong usw.). Die Inferenz erfolgt hier statt bei api.anthropic.com.

sts.amazonaws.com

Bei direkter Bedrock-Nutzung

AWS STS. Tauscht das Entra ID-Token gegen temporäre Bedrock-Anmeldedaten aus.

bedrock-runtime.<region>.amazonaws.com

Bei direkter Bedrock-Nutzung

Bedrock-Inferenz-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte AWS-Region (z. B. us-east-1).

accounts.google.com

Bei direkter Vertex AI-Nutzung

Google OAuth-Zustimmungsbildschirm.

oauth2.googleapis.com

Bei direkter Vertex AI-Nutzung

Google OAuth-Token-Austausch und -Aktualisierung.

aiplatform.googleapis.com

Bei direkter Vertex AI-Nutzung

Globaler Vertex AI-Inferenz-Endpunkt.

<region>-aiplatform.googleapis.com

Bei direkter Vertex AI-Nutzung

Regionaler Vertex AI-Inferenz-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte GCP-Region (z. B. us-east5).


Stellen Sie das Add-in für die Nutzung durch Dritte bereit (IT-Administratoren)

Verwenden Sie das claude-in-office-Plugin, um das Add-in in Ihrer Organisation zu konfigurieren und bereitzustellen. Dieses Tool verwaltet die Bereitstellung von Cloud-Ressourcen (bei direkter Bedrock- oder Vertex AI-Nutzung), generiert das Add-in-Manifest und erhält die Admin-Zustimmung in einem einzigen geführten Workflow.

Verwenden Sie den Setup-Assistenten

Installieren Sie das Plugin und führen Sie den interaktiven Setup-Assistenten aus:

claude plugin marketplace add anthropics/financial-services-plugins
claude plugin install claude-in-office@financial-services-plugins
/claude-in-office:setup

Der Assistent führt Sie durch Ihren Verbindungspfad:

  • LLM-Gateway: Erfasst Ihre Gateway-URL und das Token, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

  • Bedrock direkt: Erstellt den IAM OIDC-Identitätsanbieter und die Rolle, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

  • Vertex AI direkt: Führt Sie durch die Erstellung des Google OAuth-Clients, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.

Wenn der Assistent abgeschlossen ist, ist das Add-In bereit für die mandantenweite Bereitstellung.

Hinweis: Die Bedrock- und Vertex AI-Pfade erfordern Node.js für die Manifestgenerierung und -validierung. Der Assistent prüft dies und fordert Sie auf, es zu installieren, falls es fehlt.

Sie können die folgenden Befehle in einer claude-in-office-Sitzung verwenden:

Befehl

Funktion

/claude-in-office:setup

Interaktiver Assistent – stellt Cloud-Ressourcen bereit, Admin-Zustimmung, schreibt Manifest

/claude-in-office:manifest

Generiert das angepasste Add-In-Manifest XML

/claude-in-office:consent

Generiert die Azure-Admin-Zustimmungs-URL für die App-Registrierung des Add-Ins

/claude-in-office:update-user-attrs

Schreibt benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute

Was der Assistent bereitstellt

Der Assistent automatisiert die Ressourcenerstellung basierend auf Ihrem Verbindungspfad. Hier ist, was er einrichtet:

LLM-Gateway: Keine Cloud-Ressourcen zum Bereitstellen. Der Assistent erfasst Ihre Gateway-URL und Ihr Token und generiert dann das Manifest.

Bedrock direkt: Erstellt einen IAM-OIDC-Identitätsanbieter, der Microsoft Entra ID-Token vertraut, eine Rolle mit bedrock:InvokeModel- und bedrock:InvokeModelWithResponseStream-Berechtigungen und eine Vertrauensrichtlinie, die auf die Anwendungs-ID des Claude-Add-Ins beschränkt ist.

Vertex AI direkt: Führt Sie durch die Erstellung eines Google OAuth-Clients in der GCP-Konsole (dieser Schritt kann nicht über CLI automatisiert werden), aktiviert die Vertex AI-API und erfasst die Client-ID und das Geheimnis für das Manifest.

Benutzerspezifische Konfiguration

Wenn einige Werte pro Benutzer variieren – beispielsweise unterschiedliche Gateway-Token oder unterschiedliche AWS-Rollen für verschiedene Teams – kann der Assistent benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute schreiben. Führen Sie /claude-in-office:update-user-attrs mit den benutzerspezifischen Schlüsseln nach der anfänglichen Einrichtung aus.

In Microsoft 365 bereitstellen

Nachdem der Assistent Ihr Manifest generiert hat:

  1. Öffnen Sie das Microsoft 365 Admin Center und gehen Sie zu Einstellungen > Integrierte Apps > Benutzerdefinierte Apps hochladen.

  2. Wählen Sie „Office Add-In" als App-Typ aus und laden Sie dann die Datei manifest.xml hoch."

  3. Wählen Sie aus, wer das Add-In erhält:

    • Wenn alle Benutzer die gleiche Konfiguration verwenden, wählen Sie „Gesamte Organisation" aus."

    • Wenn Sie im vorherigen Schritt benutzerspezifische Attribute geschrieben haben, weisen Sie Bestimmte Benutzer/Gruppen zu, die genau denen entsprechen, die konfiguriert wurden. Alle anderen würden das Add-In ohne Konfiguration öffnen.

  4. Akzeptieren Sie Berechtigungen und schließen Sie die Bereitstellung ab.

Die Verbreitung an Benutzer dauert bis zu 24 Stunden (normalerweise viel schneller). Das Add-In wird unter Startseite > Add-Ins in Excel und PowerPoint angezeigt, sobald es ankommt.

Hinweis: Beginnen Sie mit einer Pilotgruppe, um zu bestätigen, dass das Add-In funktioniert, und erweitern Sie dann die Zuweisung. Sie können die Zuweisung später ändern, ohne erneut bereitzustellen.

Nach der Bereitstellung des Add-Ins können sich Ihre Benutzer durch Befolgen der folgenden Schritte verbinden.


Verbindungsanweisungen für Endbenutzer

LLM-Gateway

  1. Öffnen Sie Excel oder PowerPoint und starten Sie das Claude-Add-In.

  2. Wählen Sie auf dem Anmeldebildschirm „Enterprise-Gateway" aus."

  3. Geben Sie die Gateway-URL und das API-Token ein, die Ihr IT-Team bereitgestellt hat.

    • Gateway-URL: Die HTTPS-Basis-URL Ihres LLM-Proxys (z. B. https://llm-gateway.yourcompany.com).

    • API-Token: Das Bearer-Token, das Ihr Proxy erwartet. Das Add-In sendet dies mit jedem Request im Authorization: Bearer <token>-Header.

  4. Das Add-In prüft die Verbindung, indem es eine Testanfrage an das Gateway sendet. Wenn dies erfolgreich ist, sehen Sie die Hauptanwendungserfahrung.

Ihre Anmeldedaten werden lokal im localStorage Ihres Browsers im sandboxierten iframe des Add-Ins gespeichert. Sie werden nicht mit den Servern von Anthropic synchronisiert. Da das Office-Add-In in einem sandboxierten iframe innerhalb der Microsoft-Anwendung ausgeführt wird, kann es Ihren OS-Schlüsselbund nicht wie Claude Code verwenden – geben Sie daher nur Gateway-ausgestellte Token ein, keine rohen Cloud-Provider-Anmeldedaten.

Bedrock oder Vertex AI direkt

  1. Öffnen Sie Excel oder PowerPoint und starten Sie das Claude-Add-In.

  2. Melden Sie sich mit Ihrem Microsoft-Geschäftskonto an. Das Add-In verwendet Ihr Entra ID-Token zur Authentifizierung bei Ihrem Cloud-Provider – keine separaten Cloud-Anmeldedaten sind erforderlich.

  3. Das Add-In liest die Konfiguration, die Ihr Administrator bereitgestellt hat, und verbindet sich direkt mit Bedrock oder Vertex AI.

Wenn bei der Anmeldung ein Fehler angezeigt wird, bestätigen Sie mit Ihrem IT-Team, dass Ihr Konto in der Gruppe enthalten ist, der das Add-In zugewiesen ist.

Verbindung ändern oder aktualisieren

Wenn Ihr API-Token abläuft oder Ihr IT-Team Ihnen eine neue URL gibt, gehen Sie zu „Einstellungen


Gateway-Anforderungen für IT-Teams

Die Office-Add-Ins unterstützen nur das Anthropic Messages API-Format über den Unified-Endpunkt. Dies ist spezifischer als Claude Code, das auch Bedrock InvokeModel- und Vertex rawPredict-Formate direkt unterstützt.

CORS-Anforderungen

Der Aufgabenbereich des Add-Ins wird von https://pivot.claude.ai geladen. Jede Anfrage an Ihr Gateway ist daher ursprungsübergreifend, und der Browser verwirft automatisch alle Antworten, denen CORS-Header fehlen.

Ihr Gateway muss Access-Control-Allow-Origin: https://pivot.claude.ai (oder *) bei jeder Antwort zurückgeben: GET, POST, OPTIONS und alle Fehlerantworten. Das Setzen nur beim OPTIONS-Preflight ist nicht ausreichend. Geben Sie für das Preflight Access-Control-Allow-Headers: * zurück.

Erforderliche Endpunkte

Ihr Gateway muss diese zwei Endpunkte bereitstellen:

Endpunkt

Beschreibung

Senden Sie Nachrichten an Claude. Unterstützt sowohl Streaming- als auch Nicht-Streaming-Antworten.

Verfügbare Modelle auflisten.

Erforderlicher Header

Das Gateway muss den folgenden Anfrage-Header vom Add-In an den Upstream-Anbieter weiterleiten:

  • anthropic-version — Gibt die API-Version für das Anfrage-/Antwortformat an

Das Nichtweiterleiten dieses Headers kann zu eingeschränkter Funktionalität oder zum Ausfall des Add-Ins führen.

Autorisierungs-Header

Das Add-In kann das Autorisierungstoken Ihres Gateways entweder im x-api-key- oder im Authorization-Header senden.

Modellermittlung

Bei der Anmeldung versucht das Add-In, verfügbare Claude-Modelle über GET /v1/models zu ermitteln. Wenn Ihr Gateway keine Modellliste unter diesem Pfad bereitstellt, fordert das Add-In den Benutzer auf, eine Modell-ID manuell einzugeben.

Unterschiede zum Claude Code Gateway-Setup

Aspekt

Claude Code

Claude für Excel und PowerPoint

Unterstützte API-Formate

Anthropic Messages, Bedrock InvokeModel, Vertex rawPredict

Nur Anthropic Messages (Unified Endpoint)

Endpunkttypen

Unified und Pass-Through

Nur Unified

Anmeldedatenspeicherung

OS-Schlüsselbund oder Umgebungsvariablen

Browser-localStorage (Sandbox-iframe)

Authentifizierungskonfiguration

Umgebungsvariablen, Einstellungsdatei, Hilfsskripte

Manuelle Eingabe in der Add-In-Benutzeroberfläche (Gateway) oder Entra ID (direkte Cloud)

Token-Aktualisierung

Unterstützt Hilfsskripte für die Rotation

Manuelle Neueingabe in den Einstellungen (Gateway) oder automatisch über Entra ID (direkte Cloud)

Benutzerdefinierte Modellnamen

Konfigurierbar über Umgebungsvariablen

In v1 nicht konfigurierbar


Beispiel-Gateway-Konfiguration mit LiteLLM

Warnung: LiteLLM PyPI-Versionen 1.82.7 und 1.82.8 wurden mit Malware zum Diebstahl von Anmeldedaten kompromittiert. Installieren Sie diese Versionen nicht. Wenn Sie diese bereits installiert haben:

  • Entfernen Sie das Paket

  • Rotieren Sie alle Anmeldedaten auf betroffenen Systemen

  • Befolgen Sie die Abhilfeschritte in BerriAI/litellm#24518

LiteLLM ist ein Drittanbieter-Proxy-Service. Anthropic unterstützt, wartet oder prüft die Sicherheit oder Funktionalität von LiteLLM nicht. Diese Anleitung wird zu Informationszwecken bereitgestellt und kann veraltet sein. Verwenden Sie sie nach eigenem Ermessen.

Viele Organisationen verwenden LiteLLM als ihr Gateway. Nachfolgend finden Sie eine minimale litellm_config.yaml zum Weiterleiten von Office-Add-In-Anfragen an Anthropic, Bedrock oder Vertex.

Weiterleitung direkt an Anthropic

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: claude-sonnet-4-5-20250929
api_key: os.environ/ANTHROPIC_API_KEY

litellm_settings:
drop_params: true

Weiterleitung an Amazon Bedrock

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: bedrock/anthropic.claude-sonnet-4-5-20250929-v1:0
aws_region_name: us-east-1

litellm_settings:
drop_params: true

Routing zu Google Cloud Vertex AI

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: vertex_ai/claude-sonnet-4-5-20250929
vertex_project: your-gcp-project-id
vertex_location: us-east5

litellm_settings:
drop_params: true

Routing zu Azure

yaml

model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: azure_ai/claude-sonnet-4-5-20250929
api_base: https://your-resource.services.ai.azure.com/anthropic
api_key: os.environ/AZURE_API_KEY
extra_headers:
x-api-key: os.environ/AZURE_API_KEY

litellm_settings:
drop_params: true

Detaillierte Setupanweisungen finden Sie in LiteLLM's Anthropic-Formatdokumentation.


Was Anthropic erfasst

Auch wenn die Inferenz über Ihre eigene Infrastruktur läuft, kommuniziert das Add-in mit pivot.claude.ai, um seine Benutzeroberfläche zu laden, und mit claude.ai/api/, um Feature-Flags zu evaluieren. Diese Verbindungen übertragen operative Telemetrie – wie z. B. welche Funktionen verwendet werden, Leistungszeitpunkte und Fehlerquoten – damit Anthropic das Add-in-Erlebnis pflegen und verbessern kann. Sie übertragen weder Ihre Eingabeaufforderungen noch Claudes Antworten.

Anthropic erfasst Informationen gemäß den Bedingungen von AWS Bedrock, Google Cloud Vertex AI oder Microsoft Azure, konsistent mit Anthropics Vereinbarungen mit Kunden. Anthropic hat keinen Zugriff auf die AWS-, Google- oder Microsoft-Instanz eines Kunden, einschließlich der darin enthaltenen Eingabeaufforderungen oder Ausgaben. Anthropic trainiert keine generativen Modelle mit solchen Inhalten und verwendet sie nicht für andere Zwecke. Anthropic kann auf Metadaten zugreifen – wie z. B. Werkzeugnutzung, Token-Zählungen und ähnliche Elemente – und solche Metadaten für analytische und Produktverbesserungszwecke verwenden.

Für Details darüber, was Ihr Organisations-Gateway oder Cloud-Anbieter protokolliert, wenden Sie sich an Ihr IT-Team.

Um einen vollständigen Audit-Trail – einschließlich Eingabeaufforderungen, Werkzeugeingaben, Werkzeugausgaben und Dokumentreferenzen – zu Ihrer eigenen Infrastruktur zu leiten, siehe Konfigurieren Sie einen benutzerdefinierten OpenTelemetry-Collector für Office-Agenten.


Wie sich dies vom Anmelden mit einem Claude-Konto unterscheidet

Wenn Sie sich mit einem Claude-Konto anmelden, verbinden sich die Add-ins direkt mit Anthropic. Wenn Sie sich über eine Drittanbieterplattform verbinden, senden die Add-ins Inferenzanfragen stattdessen an die Infrastruktur Ihrer Organisation, und Ihr IT-Team kontrolliert, wie dieser Datenverkehr weitergeleitet und protokolliert wird.

Einige Funktionen, die ein Claude-Konto erfordern, sind über Drittanbieterplattformen noch nicht verfügbar, aber wir arbeiten daran, Unterstützung hinzuzufügen:

Funktion

Claude-Konto

Drittanbieterplattform

Chat mit Ihrer Tabellenkalkulation oder Präsentation

Zellen, Folien, Formeln lesen und bearbeiten

Konnektoren (S&P, FactSet, usw.)

Demnächst verfügbar

Übergreifend über Apps arbeiten

Fähigkeiten

Demnächst verfügbar

Datei-Uploads

Websuche

Nur Vertex

Wenn Ihr Team diese Funktionen benötigt, sprechen Sie mit Ihrem Claude-Administrator darüber, welcher Anmeldepfad zu Ihrer Organisation passt.


Fehlerbehebung

"Verbindung abgelehnt" oder Netzwerkfehler

Die Gateway-URL oder der Cloud-Endpunkt ist vom Netzwerk des Benutzers nicht erreichbar. Überprüfen Sie, ob die URL korrekt ist, der Dienst läuft und es keine Firewall- oder VPN-Einschränkungen gibt, die die Verbindung blockieren. Überprüfen Sie den Abschnitt Netzwerk-Allowlist oben, um zu bestätigen, dass alle erforderlichen Domänen zulässig sind.

401 Unauthorized oder "Ungültiges Token"

Das Auth-Token ist ungültig oder abgelaufen. Bestätigen Sie das Token bei Gateway-Verbindungen mit Ihrem IT-Team. Überprüfen Sie bei direkten Cloud-Verbindungen, ob das Entra ID-Konto des Benutzers in der zugewiesenen Gruppe ist und ob das OIDC-Vertrauen oder der OAuth-Client korrekt konfiguriert ist.

403 Forbidden oder "Zugriff verweigert"

Das Token ist gültig, hat aber nicht die richtigen Berechtigungen. Überprüfen Sie für Bedrock, ob die IAM-Rolle bedrock:InvokeModel-Berechtigungen hat. Überprüfen Sie für Vertex, ob das Dienstkonto aiplatform.endpoints.predict-Berechtigungen hat. Überprüfen Sie für Gateways den Umfang des Tokens mit Ihrem IT-Administrator.

404 Nicht gefunden

Das Add-in konnte den erwarteten API-Pfad nicht erreichen. Überprüfen Sie für Gateways, ob die URL die Basis-URL ist (z. B. https://litellm-server:4000)—don't /v1/messages nicht in das URL-Feld einbeziehen.

500 oder andere Serverfehler

Das Gateway oder der Cloud-Anbieter ist auf einen internen Fehler gestoßen. Überprüfen Sie Ihre Gateway-Protokolle (z. B. docker logs litellm bei Verwendung von LiteLLM) auf Fehler des Upstream-Anbieters. Versuchen Sie die Anfrage erneut, und wenden Sie sich an Ihren IT-Administrator, wenn das Problem weiterhin besteht.

„Keine Modelle verfügbar

Das Add-in konnte Claude-Modelle nicht finden. Bei Gateways ist es möglich, dass Ihr Gateway keine Modellliste unter GET /v1/models bereitstellt. Ihr IT-Team kann das Gateway so konfigurieren, dass es eine Modellliste bereitstellt, oder Ihnen eine spezifische Modell-ID zum manuellen Eingeben geben. Für Bedrock oder Vertex bestätigen Sie, dass mindestens ein Claude-Modell (Claude Sonnet 4.5 oder später) in Ihrem Konto und Ihrer Region aktiviert ist.

Streaming-Antworten schlagen fehl oder hängen fest

Überprüfen Sie, dass Ihr Gateway Server-Sent Events (SSE) Pass-Through unterstützt. Einige Proxy-Konfigurationen entfernen oder puffern SSE-Verbindungen, was verhindert, dass Streaming-Antworten das Add-in erreichen.

Eine erwartete Funktion ist nicht verfügbar

Connectors, Skills, Datei-Uploads und Working Across Apps sind über Drittanbieter-Plattformen noch nicht verfügbar. Wenn Sie diese benötigen, fragen Sie Ihren Administrator, ob Sie sich stattdessen mit einem Claude-Konto anmelden können.

Hat dies deine Frage beantwortet?