Wenn Ihre Organisation AWS Bedrock, Google Cloud Vertex AI oder ein LLM-Gateway verwendet, um auf Claude zuzugreifen, können Sie die Add-Ins Claude für Excel und Claude für PowerPoint ohne Claude-Konto verwenden. Das Add-In verbindet sich über die Infrastruktur Ihrer Organisation, sodass Ihre Anfragen und Antworten innerhalb Ihrer bestehenden Vertrauensgrenze bleiben.
Es gibt drei Verbindungspfade, je nachdem, wie Ihre Organisation auf Claude zugreift:
LLM-Gateway: Das Add-In sendet Anfragen an Ihr Gateway (LiteLLM, Portkey, Kong usw.), das diese an den Anbieter Ihrer Wahl weiterleitet. Dies ist das gleiche Muster, das von Claude Code verwendet wird. Wenn Ihre Organisation bereits Claude Code über ein LLM-Gateway ausführt, können Sie die Office-Add-Ins auf denselben Endpunkt verweisen – es ist keine neue Infrastruktur erforderlich.
Bedrock direkt: Das Add-In authentifiziert sich über Microsoft Entra ID und ruft AWS Bedrock direkt auf, ohne Gateway dazwischen.
Vertex AI direkt: Das Add-In authentifiziert sich über Google OAuth und ruft Vertex AI direkt auf.
Ihr IT-Administrator wählt den Pfad während der Bereitstellung aus. Als Endbenutzer ist die Erfahrung unabhängig davon, welchen Pfad Ihre Organisation verwendet, gleich.
Anforderungen
Die Anforderungen variieren je nach Verbindungspfad.
Alle Pfade:
Claude für Excel oder Claude für PowerPoint installiert (von Microsoft AppSource oder von Ihrem Administrator bereitgestellt)
Microsoft 365 mit Entra ID (für Admin-Zustimmung und bei direkten Cloud-Pfaden für Token-Ausstellung)
LLM-Gateway:
Eine Gateway-URL und ein API-Token von Ihrem IT-Team
Bedrock direkt:
Ein AWS-Konto mit aktiviertem Claude-Modellzugriff in der Zielregion
Ein IAM-OIDC-Identitätsanbieter und eine Rolle, die so konfiguriert ist, dass sie Microsoft Entra ID-Token vertraut
Vertex AI direkt:
Ein Google Cloud-Projekt mit aktivierter Vertex AI API und Claude-Modellzugriff in der Zielregion
Ein Google OAuth-Client, der mit dem Redirect-URI des Add-Ins konfiguriert ist
Das IT-Team Ihrer Organisation verwaltet diese Ressourcen. Wenn Sie die benötigten Anmeldedaten nicht haben, kontaktieren Sie sie – Anthropic kann diese nicht bereitstellen oder zurücksetzen.
Netzwerk-Allowlist
Das Add-In muss bestimmte Domains erreichen, um zu funktionieren. Welche Domains erforderlich sind, hängt davon ab, ob Ihre Organisation die Anthropic API direkt (1P) oder eine Drittanbieter-Plattform (3P) verwendet. Teilen Sie die entsprechende Tabelle mit Ihrem Netzwerk- oder Sicherheitsteam, damit diese diese Domains auf die Allowlist setzen können.
Wichtig: In allen Konfigurationen – einschließlich Drittanbieter – werden Ihre Anfragen und Claudes Antworten nur an Ihren gewählten Inference-Anbieter (Ihr Gateway, Bedrock oder Vertex AI) übertragen. Die unten aufgeführten Domains, die auf Anthropic verweisen (wie pivot.claude.ai), dienen der Benutzeroberfläche des Add-Ins, der Feature-Konfiguration und der operativen Telemetrie. Sie enthalten keine Anfrage- oder Antworteninhalte.
Anthropic API (1P)
Verwenden Sie diese Tabelle, wenn sich Personen in Ihrer Organisation mit einem Claude-Konto anmelden und der Inference zu api.anthropic.com erfolgt.
Domain | Erforderlich wenn | Zweck |
pivot.claude.ai | Immer | Add-In-Host. Stellt die Task-Pane-Benutzeroberfläche bereit und leitet Analysen, Symbolsuche, Skill-Downloads und Telemetrie weiter. |
claude.ai | Immer | Anthropic OAuth-Anmeldung und Feature-Flag-Evaluierung. |
api.anthropic.com | Immer | Claude Inference API, Datei-Uploads, Code-Ausführungs-Container und die MCP-Connector-Registry. |
appsforoffice.microsoft.com | Immer | Microsoft Office.js Runtime-Skript. Erforderlich für jedes Office-Add-In. |
o1158394.ingest.us.sentry.io | Optional | Absturz- und Fehlerberichterstattung. Das Blockieren beeinträchtigt nur die Diagnose; das Add-In funktioniert weiterhin. |
mcp-proxy.anthropic.com | Bei Verwendung von MCP-Connectoren | Proxy für MCP-Connector-Tool-Aufrufe. |
bridge.claudeusercontent.com | Bei Verwendung von App-übergreifender Arbeit | WebSocket-Bridge für die App-übergreifende Zusammenarbeit. |
Drittanbieter-Plattformen (3P)
Verwenden Sie diese Tabelle, wenn sich Benutzer in Ihrer Organisation mit Microsoft Entra ID anmelden und die Inferenz zu Ihrem LLM-Gateway, Bedrock oder Vertex AI erfolgt.
Domäne | Erforderlich wenn | Zweck |
pivot.claude.ai | Immer | Add-in-Host. Stellt die Aufgabenbereich-UI bereit und leitet Analysen, Symbolsuche und Telemetrie weiter. |
claude.ai/api/ | Immer | Feature-Flag-Evaluierung. Keine Anmeldung erforderlich; das Add-in ruft seine Konfiguration nur von hier ab. |
appsforoffice.microsoft.com | Immer | Microsoft Office.js-Laufzeitskript (erforderlich für jedes Office-Add-in). |
login.microsoftonline.com | Immer | Microsoft Entra ID-Anmeldung über Nested App Auth. Liest die vom Administrator bereitgestellte Gateway-Konfiguration und stellt Token für direkte Cloud-Authentifizierung aus. |
o1158394.ingest.us.sentry.io | Optional | Absturz- und Fehlerberichterstattung. Das Blockieren beeinträchtigt nur die Diagnose; das Add-in funktioniert weiterhin. |
Ihre LLM-Gateway-URL | Bei Verwendung eines LLM-Gateways | Das LLM-Gateway Ihrer Organisation (LiteLLM, Portkey, Kong usw.). Die Inferenz erfolgt hier statt bei api.anthropic.com. |
sts.amazonaws.com | Bei direkter Bedrock-Nutzung | AWS STS. Tauscht das Entra ID-Token gegen temporäre Bedrock-Anmeldedaten aus. |
bedrock-runtime.<region>.amazonaws.com | Bei direkter Bedrock-Nutzung | Bedrock-Inferenz-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte AWS-Region (z. B. us-east-1). |
accounts.google.com | Bei direkter Vertex AI-Nutzung | Google OAuth-Zustimmungsbildschirm. |
oauth2.googleapis.com | Bei direkter Vertex AI-Nutzung | Google OAuth-Token-Austausch und -Aktualisierung. |
aiplatform.googleapis.com | Bei direkter Vertex AI-Nutzung | Globaler Vertex AI-Inferenz-Endpunkt. |
<region>-aiplatform.googleapis.com | Bei direkter Vertex AI-Nutzung | Regionaler Vertex AI-Inferenz-Endpunkt. Ersetzen Sie <region> durch Ihre konfigurierte GCP-Region (z. B. us-east5). |
Stellen Sie das Add-in für die Nutzung durch Dritte bereit (IT-Administratoren)
Verwenden Sie das claude-in-office-Plugin, um das Add-in in Ihrer Organisation zu konfigurieren und bereitzustellen. Dieses Tool verwaltet die Bereitstellung von Cloud-Ressourcen (bei direkter Bedrock- oder Vertex AI-Nutzung), generiert das Add-in-Manifest und erhält die Admin-Zustimmung in einem einzigen geführten Workflow.
Verwenden Sie den Setup-Assistenten
Installieren Sie das Plugin und führen Sie den interaktiven Setup-Assistenten aus:
claude plugin marketplace add anthropics/financial-services-plugins
claude plugin install claude-in-office@financial-services-plugins
/claude-in-office:setup
Der Assistent führt Sie durch Ihren Verbindungspfad:
LLM-Gateway: Erfasst Ihre Gateway-URL und das Token, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.
Bedrock direkt: Erstellt den IAM OIDC-Identitätsanbieter und die Rolle, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.
Vertex AI direkt: Führt Sie durch die Erstellung des Google OAuth-Clients, generiert das Manifest und verwaltet die Azure-Admin-Zustimmung.
Wenn der Assistent abgeschlossen ist, ist das Add-In bereit für die mandantenweite Bereitstellung.
Hinweis: Die Bedrock- und Vertex AI-Pfade erfordern Node.js für die Manifestgenerierung und -validierung. Der Assistent prüft dies und fordert Sie auf, es zu installieren, falls es fehlt.
Sie können die folgenden Befehle in einer claude-in-office-Sitzung verwenden:
Befehl | Funktion |
| Interaktiver Assistent – stellt Cloud-Ressourcen bereit, Admin-Zustimmung, schreibt Manifest |
| Generiert das angepasste Add-In-Manifest XML |
| Generiert die Azure-Admin-Zustimmungs-URL für die App-Registrierung des Add-Ins |
| Schreibt benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute |
Was der Assistent bereitstellt
Der Assistent automatisiert die Ressourcenerstellung basierend auf Ihrem Verbindungspfad. Hier ist, was er einrichtet:
LLM-Gateway: Keine Cloud-Ressourcen zum Bereitstellen. Der Assistent erfasst Ihre Gateway-URL und Ihr Token und generiert dann das Manifest.
Bedrock direkt: Erstellt einen IAM-OIDC-Identitätsanbieter, der Microsoft Entra ID-Token vertraut, eine Rolle mit bedrock:InvokeModel- und bedrock:InvokeModelWithResponseStream-Berechtigungen und eine Vertrauensrichtlinie, die auf die Anwendungs-ID des Claude-Add-Ins beschränkt ist.
Vertex AI direkt: Führt Sie durch die Erstellung eines Google OAuth-Clients in der GCP-Konsole (dieser Schritt kann nicht über CLI automatisiert werden), aktiviert die Vertex AI-API und erfasst die Client-ID und das Geheimnis für das Manifest.
Benutzerspezifische Konfiguration
Wenn einige Werte pro Benutzer variieren – beispielsweise unterschiedliche Gateway-Token oder unterschiedliche AWS-Rollen für verschiedene Teams – kann der Assistent benutzerspezifische Konfiguration über Microsoft Graph-Erweiterungsattribute schreiben. Führen Sie /claude-in-office:update-user-attrs mit den benutzerspezifischen Schlüsseln nach der anfänglichen Einrichtung aus.
In Microsoft 365 bereitstellen
Nachdem der Assistent Ihr Manifest generiert hat:
Öffnen Sie das Microsoft 365 Admin Center und gehen Sie zu Einstellungen > Integrierte Apps > Benutzerdefinierte Apps hochladen.
Wählen Sie „Office Add-In" als App-Typ aus und laden Sie dann die Datei manifest.xml hoch."
Wählen Sie aus, wer das Add-In erhält:
Wenn alle Benutzer die gleiche Konfiguration verwenden, wählen Sie „Gesamte Organisation" aus."
Wenn Sie im vorherigen Schritt benutzerspezifische Attribute geschrieben haben, weisen Sie Bestimmte Benutzer/Gruppen zu, die genau denen entsprechen, die konfiguriert wurden. Alle anderen würden das Add-In ohne Konfiguration öffnen.
Akzeptieren Sie Berechtigungen und schließen Sie die Bereitstellung ab.
Die Verbreitung an Benutzer dauert bis zu 24 Stunden (normalerweise viel schneller). Das Add-In wird unter Startseite > Add-Ins in Excel und PowerPoint angezeigt, sobald es ankommt.
Hinweis: Beginnen Sie mit einer Pilotgruppe, um zu bestätigen, dass das Add-In funktioniert, und erweitern Sie dann die Zuweisung. Sie können die Zuweisung später ändern, ohne erneut bereitzustellen.
Nach der Bereitstellung des Add-Ins können sich Ihre Benutzer durch Befolgen der folgenden Schritte verbinden.
Verbindungsanweisungen für Endbenutzer
LLM-Gateway
Öffnen Sie Excel oder PowerPoint und starten Sie das Claude-Add-In.
Wählen Sie auf dem Anmeldebildschirm „Enterprise-Gateway" aus."
Geben Sie die Gateway-URL und das API-Token ein, die Ihr IT-Team bereitgestellt hat.
Gateway-URL: Die HTTPS-Basis-URL Ihres LLM-Proxys (z. B. https://llm-gateway.yourcompany.com).
API-Token: Das Bearer-Token, das Ihr Proxy erwartet. Das Add-In sendet dies mit jedem Request im Authorization: Bearer <token>-Header.
Das Add-In prüft die Verbindung, indem es eine Testanfrage an das Gateway sendet. Wenn dies erfolgreich ist, sehen Sie die Hauptanwendungserfahrung.
Ihre Anmeldedaten werden lokal im localStorage Ihres Browsers im sandboxierten iframe des Add-Ins gespeichert. Sie werden nicht mit den Servern von Anthropic synchronisiert. Da das Office-Add-In in einem sandboxierten iframe innerhalb der Microsoft-Anwendung ausgeführt wird, kann es Ihren OS-Schlüsselbund nicht wie Claude Code verwenden – geben Sie daher nur Gateway-ausgestellte Token ein, keine rohen Cloud-Provider-Anmeldedaten.
Bedrock oder Vertex AI direkt
Öffnen Sie Excel oder PowerPoint und starten Sie das Claude-Add-In.
Melden Sie sich mit Ihrem Microsoft-Geschäftskonto an. Das Add-In verwendet Ihr Entra ID-Token zur Authentifizierung bei Ihrem Cloud-Provider – keine separaten Cloud-Anmeldedaten sind erforderlich.
Das Add-In liest die Konfiguration, die Ihr Administrator bereitgestellt hat, und verbindet sich direkt mit Bedrock oder Vertex AI.
Wenn bei der Anmeldung ein Fehler angezeigt wird, bestätigen Sie mit Ihrem IT-Team, dass Ihr Konto in der Gruppe enthalten ist, der das Add-In zugewiesen ist.
Verbindung ändern oder aktualisieren
Wenn Ihr API-Token abläuft oder Ihr IT-Team Ihnen eine neue URL gibt, gehen Sie zu „Einstellungen
Gateway-Anforderungen für IT-Teams
Die Office-Add-Ins unterstützen nur das Anthropic Messages API-Format über den Unified-Endpunkt. Dies ist spezifischer als Claude Code, das auch Bedrock InvokeModel- und Vertex rawPredict-Formate direkt unterstützt.
CORS-Anforderungen
Der Aufgabenbereich des Add-Ins wird von https://pivot.claude.ai geladen. Jede Anfrage an Ihr Gateway ist daher ursprungsübergreifend, und der Browser verwirft automatisch alle Antworten, denen CORS-Header fehlen.
Ihr Gateway muss Access-Control-Allow-Origin: https://pivot.claude.ai (oder *) bei jeder Antwort zurückgeben: GET, POST, OPTIONS und alle Fehlerantworten. Das Setzen nur beim OPTIONS-Preflight ist nicht ausreichend. Geben Sie für das Preflight Access-Control-Allow-Headers: * zurück.
Erforderliche Endpunkte
Ihr Gateway muss diese zwei Endpunkte bereitstellen:
Endpunkt | Beschreibung |
Senden Sie Nachrichten an Claude. Unterstützt sowohl Streaming- als auch Nicht-Streaming-Antworten. | |
Verfügbare Modelle auflisten. |
Erforderlicher Header
Das Gateway muss den folgenden Anfrage-Header vom Add-In an den Upstream-Anbieter weiterleiten:
anthropic-version— Gibt die API-Version für das Anfrage-/Antwortformat an
Das Nichtweiterleiten dieses Headers kann zu eingeschränkter Funktionalität oder zum Ausfall des Add-Ins führen.
Autorisierungs-Header
Das Add-In kann das Autorisierungstoken Ihres Gateways entweder im x-api-key- oder im Authorization-Header senden.
Modellermittlung
Bei der Anmeldung versucht das Add-In, verfügbare Claude-Modelle über GET /v1/models zu ermitteln. Wenn Ihr Gateway keine Modellliste unter diesem Pfad bereitstellt, fordert das Add-In den Benutzer auf, eine Modell-ID manuell einzugeben.
Unterschiede zum Claude Code Gateway-Setup
Aspekt | Claude Code | Claude für Excel und PowerPoint |
Unterstützte API-Formate | Anthropic Messages, Bedrock InvokeModel, Vertex rawPredict | Nur Anthropic Messages (Unified Endpoint) |
Endpunkttypen | Unified und Pass-Through | Nur Unified |
Anmeldedatenspeicherung | OS-Schlüsselbund oder Umgebungsvariablen | Browser-localStorage (Sandbox-iframe) |
Authentifizierungskonfiguration | Umgebungsvariablen, Einstellungsdatei, Hilfsskripte | Manuelle Eingabe in der Add-In-Benutzeroberfläche (Gateway) oder Entra ID (direkte Cloud) |
Token-Aktualisierung | Unterstützt Hilfsskripte für die Rotation | Manuelle Neueingabe in den Einstellungen (Gateway) oder automatisch über Entra ID (direkte Cloud) |
Benutzerdefinierte Modellnamen | Konfigurierbar über Umgebungsvariablen | In v1 nicht konfigurierbar |
Beispiel-Gateway-Konfiguration mit LiteLLM
Warnung: LiteLLM PyPI-Versionen 1.82.7 und 1.82.8 wurden mit Malware zum Diebstahl von Anmeldedaten kompromittiert. Installieren Sie diese Versionen nicht. Wenn Sie diese bereits installiert haben:
Entfernen Sie das Paket
Rotieren Sie alle Anmeldedaten auf betroffenen Systemen
Befolgen Sie die Abhilfeschritte in BerriAI/litellm#24518
LiteLLM ist ein Drittanbieter-Proxy-Service. Anthropic unterstützt, wartet oder prüft die Sicherheit oder Funktionalität von LiteLLM nicht. Diese Anleitung wird zu Informationszwecken bereitgestellt und kann veraltet sein. Verwenden Sie sie nach eigenem Ermessen.
Viele Organisationen verwenden LiteLLM als ihr Gateway. Nachfolgend finden Sie eine minimale litellm_config.yaml zum Weiterleiten von Office-Add-In-Anfragen an Anthropic, Bedrock oder Vertex.
Weiterleitung direkt an Anthropic
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: claude-sonnet-4-5-20250929
api_key: os.environ/ANTHROPIC_API_KEY
litellm_settings:
drop_params: true
Weiterleitung an Amazon Bedrock
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: bedrock/anthropic.claude-sonnet-4-5-20250929-v1:0
aws_region_name: us-east-1
litellm_settings:
drop_params: true
Routing zu Google Cloud Vertex AI
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: vertex_ai/claude-sonnet-4-5-20250929
vertex_project: your-gcp-project-id
vertex_location: us-east5
litellm_settings:
drop_params: true
Routing zu Azure
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: azure_ai/claude-sonnet-4-5-20250929
api_base: https://your-resource.services.ai.azure.com/anthropic
api_key: os.environ/AZURE_API_KEY
extra_headers:
x-api-key: os.environ/AZURE_API_KEY
litellm_settings:
drop_params: true
Detaillierte Setupanweisungen finden Sie in LiteLLM's Anthropic-Formatdokumentation.
Was Anthropic erfasst
Auch wenn die Inferenz über Ihre eigene Infrastruktur läuft, kommuniziert das Add-in mit pivot.claude.ai, um seine Benutzeroberfläche zu laden, und mit claude.ai/api/, um Feature-Flags zu evaluieren. Diese Verbindungen übertragen operative Telemetrie – wie z. B. welche Funktionen verwendet werden, Leistungszeitpunkte und Fehlerquoten – damit Anthropic das Add-in-Erlebnis pflegen und verbessern kann. Sie übertragen weder Ihre Eingabeaufforderungen noch Claudes Antworten.
Anthropic erfasst Informationen gemäß den Bedingungen von AWS Bedrock, Google Cloud Vertex AI oder Microsoft Azure, konsistent mit Anthropics Vereinbarungen mit Kunden. Anthropic hat keinen Zugriff auf die AWS-, Google- oder Microsoft-Instanz eines Kunden, einschließlich der darin enthaltenen Eingabeaufforderungen oder Ausgaben. Anthropic trainiert keine generativen Modelle mit solchen Inhalten und verwendet sie nicht für andere Zwecke. Anthropic kann auf Metadaten zugreifen – wie z. B. Werkzeugnutzung, Token-Zählungen und ähnliche Elemente – und solche Metadaten für analytische und Produktverbesserungszwecke verwenden.
Für Details darüber, was Ihr Organisations-Gateway oder Cloud-Anbieter protokolliert, wenden Sie sich an Ihr IT-Team.
Um einen vollständigen Audit-Trail – einschließlich Eingabeaufforderungen, Werkzeugeingaben, Werkzeugausgaben und Dokumentreferenzen – zu Ihrer eigenen Infrastruktur zu leiten, siehe Konfigurieren Sie einen benutzerdefinierten OpenTelemetry-Collector für Office-Agenten.
Wie sich dies vom Anmelden mit einem Claude-Konto unterscheidet
Wenn Sie sich mit einem Claude-Konto anmelden, verbinden sich die Add-ins direkt mit Anthropic. Wenn Sie sich über eine Drittanbieterplattform verbinden, senden die Add-ins Inferenzanfragen stattdessen an die Infrastruktur Ihrer Organisation, und Ihr IT-Team kontrolliert, wie dieser Datenverkehr weitergeleitet und protokolliert wird.
Einige Funktionen, die ein Claude-Konto erfordern, sind über Drittanbieterplattformen noch nicht verfügbar, aber wir arbeiten daran, Unterstützung hinzuzufügen:
Funktion | Claude-Konto | Drittanbieterplattform |
Chat mit Ihrer Tabellenkalkulation oder Präsentation | ✓ | ✓ |
Zellen, Folien, Formeln lesen und bearbeiten | ✓ | ✓ |
Konnektoren (S&P, FactSet, usw.) | ✓ | Demnächst verfügbar |
Übergreifend über Apps arbeiten | ✓ | — |
Fähigkeiten | ✓ | Demnächst verfügbar |
Datei-Uploads | ✓ | — |
Websuche | ✓ | Nur Vertex |
Wenn Ihr Team diese Funktionen benötigt, sprechen Sie mit Ihrem Claude-Administrator darüber, welcher Anmeldepfad zu Ihrer Organisation passt.
Fehlerbehebung
"Verbindung abgelehnt" oder Netzwerkfehler
Die Gateway-URL oder der Cloud-Endpunkt ist vom Netzwerk des Benutzers nicht erreichbar. Überprüfen Sie, ob die URL korrekt ist, der Dienst läuft und es keine Firewall- oder VPN-Einschränkungen gibt, die die Verbindung blockieren. Überprüfen Sie den Abschnitt Netzwerk-Allowlist oben, um zu bestätigen, dass alle erforderlichen Domänen zulässig sind.
401 Unauthorized oder "Ungültiges Token"
Das Auth-Token ist ungültig oder abgelaufen. Bestätigen Sie das Token bei Gateway-Verbindungen mit Ihrem IT-Team. Überprüfen Sie bei direkten Cloud-Verbindungen, ob das Entra ID-Konto des Benutzers in der zugewiesenen Gruppe ist und ob das OIDC-Vertrauen oder der OAuth-Client korrekt konfiguriert ist.
403 Forbidden oder "Zugriff verweigert"
Das Token ist gültig, hat aber nicht die richtigen Berechtigungen. Überprüfen Sie für Bedrock, ob die IAM-Rolle bedrock:InvokeModel-Berechtigungen hat. Überprüfen Sie für Vertex, ob das Dienstkonto aiplatform.endpoints.predict-Berechtigungen hat. Überprüfen Sie für Gateways den Umfang des Tokens mit Ihrem IT-Administrator.
404 Nicht gefunden
Das Add-in konnte den erwarteten API-Pfad nicht erreichen. Überprüfen Sie für Gateways, ob die URL die Basis-URL ist (z. B. https://litellm-server:4000)—don't /v1/messages nicht in das URL-Feld einbeziehen.
500 oder andere Serverfehler
Das Gateway oder der Cloud-Anbieter ist auf einen internen Fehler gestoßen. Überprüfen Sie Ihre Gateway-Protokolle (z. B. docker logs litellm bei Verwendung von LiteLLM) auf Fehler des Upstream-Anbieters. Versuchen Sie die Anfrage erneut, und wenden Sie sich an Ihren IT-Administrator, wenn das Problem weiterhin besteht.
„Keine Modelle verfügbar
Das Add-in konnte Claude-Modelle nicht finden. Bei Gateways ist es möglich, dass Ihr Gateway keine Modellliste unter GET /v1/models bereitstellt. Ihr IT-Team kann das Gateway so konfigurieren, dass es eine Modellliste bereitstellt, oder Ihnen eine spezifische Modell-ID zum manuellen Eingeben geben. Für Bedrock oder Vertex bestätigen Sie, dass mindestens ein Claude-Modell (Claude Sonnet 4.5 oder später) in Ihrem Konto und Ihrer Region aktiviert ist.
Streaming-Antworten schlagen fehl oder hängen fest
Überprüfen Sie, dass Ihr Gateway Server-Sent Events (SSE) Pass-Through unterstützt. Einige Proxy-Konfigurationen entfernen oder puffern SSE-Verbindungen, was verhindert, dass Streaming-Antworten das Add-in erreichen.
Eine erwartete Funktion ist nicht verfügbar
Connectors, Skills, Datei-Uploads und Working Across Apps sind über Drittanbieter-Plattformen noch nicht verfügbar. Wenn Sie diese benötigen, fragen Sie Ihren Administrator, ob Sie sich stattdessen mit einem Claude-Konto anmelden können.
