Si votre organisation utilise AWS Bedrock, Google Cloud Vertex AI, Azure AI Foundry ou une passerelle LLM pour accéder à Claude, vous pouvez utiliser les modules complémentaires Claude pour Excel, Claude pour PowerPoint et Claude pour Word sans compte Claude. Le module complémentaire se connecte via l'infrastructure de votre organisation, de sorte que vos invites et réponses restent dans votre limite de confiance existante.
Il existe quatre chemins de connexion, selon la façon dont votre organisation accède à Claude :
Passerelle LLM : Le module complémentaire envoie des demandes à votre passerelle (LiteLLM, Portkey, Kong, etc.), qui les achemine vers le fournisseur de votre choix. C'est le même modèle utilisé par Claude Code. Si votre organisation exécute déjà Claude Code via une passerelle LLM, vous pouvez pointer les modules complémentaires Office vers le même point de terminaison—aucune nouvelle infrastructure n'est requise.
Bedrock direct : Le module complémentaire s'authentifie via Microsoft Entra ID et appelle AWS Bedrock directement, sans passerelle intermédiaire.
Vertex AI direct : Le module complémentaire s'authentifie via Google OAuth et appelle Vertex AI directement.
Foundry direct : Le module complémentaire s'authentifie directement via votre ressource Azure AI Foundry en utilisant sa clé API.
Votre administrateur informatique choisit le chemin lors du déploiement. En tant qu'utilisateur final, l'expérience est la même quel que soit le chemin utilisé par votre organisation.
Exigences
Les exigences varient selon le chemin de connexion.
Tous les chemins :
Claude pour Excel, Claude pour PowerPoint ou Claude pour Word installé (depuis Microsoft AppSource ou déployé par votre administrateur)
Microsoft 365 avec Entra ID (pour le consentement administrateur et, dans les chemins cloud directs, l'émission de jetons)
Passerelle LLM :
Une URL de passerelle et un jeton API de votre équipe informatique
Bedrock direct :
Un compte AWS avec accès au modèle Claude activé dans la région cible
Un fournisseur d'identité OIDC IAM et un rôle configurés pour faire confiance aux jetons Microsoft Entra ID
Vertex AI direct :
Un projet Google Cloud avec l'API Vertex AI activée et l'accès au modèle Claude dans la région cible
Un client Google OAuth configuré avec l'URI de redirection du module complémentaire
Foundry direct :
Une ressource Azure AI Foundry avec au moins un modèle Claude déployé (Claude Opus 4.6, Opus 4.5, Sonnet 4.6 ou Sonnet 4.5)
Les noms de déploiement doivent rester les ID de modèle par défaut (par exemple, claude-opus-4-6) ; les noms de déploiement personnalisés ne sont pas encore pris en charge. L'adaptateur sonde par ID de modèle, donc un déploiement renommé ne sera pas trouvé.
La clé API de la ressource, depuis Azure Portal → votre ressource Foundry → Keys and Endpoint → KEY 1
L'équipe informatique de votre organisation gère ces ressources. Si vous n'avez pas les identifiants dont vous avez besoin, contactez-les—Anthropic ne peut pas les fournir ou les réinitialiser pour vous.
Liste d'autorisation réseau
Le module complémentaire doit accéder à des domaines spécifiques pour fonctionner. Les domaines dépendent de si votre organisation utilise l'API Anthropic directement (1P) ou une plateforme tierce (3P). Partagez le tableau applicable avec votre équipe réseau ou sécurité afin qu'elle puisse autoriser ces domaines.
Important : Dans toutes les configurations—y compris les tiers—vos invites et les réponses de Claude ne se déplacent que vers votre fournisseur d'inférence choisi (votre passerelle, Bedrock, Vertex AI ou Azure AI Foundry). Les domaines énumérés ci-dessous qui pointent vers Anthropic (tels que pivot.claude.ai) servent l'interface du module complémentaire, la configuration des fonctionnalités et la télémétrie opérationnelle. Ils ne transportent pas le contenu des invites ou des réponses.
API Anthropic (1P)
Utilisez ce tableau si les personnes de votre organisation se connectent avec un compte Claude et que l'inférence va à api.anthropic.com.
Domaine | Requis quand | Objectif |
pivot.claude.ai | Toujours | Hôte du module complémentaire. Sert l'interface utilisateur du volet des tâches et proxies les analyses, la recherche d'icônes, les téléchargements de compétences et la télémétrie. |
claude.ai | Toujours | Connexion OAuth Anthropic et évaluation des drapeaux de fonctionnalités. |
api.anthropic.com | Toujours | API d'inférence Claude, téléchargements de fichiers, conteneurs d'exécution de code et registre du connecteur MCP. |
appsforoffice.microsoft.com | Toujours | Script d'exécution Microsoft Office.js. Requis par chaque module complémentaire Office. |
o1158394.ingest.us.sentry.io | Optionnel | Rapport des pannes et des erreurs. Bloquer cela dégrade uniquement les diagnostics ; le module complémentaire fonctionne toujours. |
mcp-proxy.anthropic.com | Si vous utilisez des connecteurs MCP | Proxy pour les appels d'outils du connecteur MCP. |
bridge.claudeusercontent.com | Si vous utilisez la collaboration entre applications | Pont WebSocket pour la fonctionnalité de collaboration entre applications. |
Plateformes tierces (3P)
Utilisez ce tableau si les personnes de votre organisation se connectent avec Microsoft Entra ID et que l'inférence va vers votre passerelle LLM, Bedrock ou Vertex AI.
Domaine | Requis quand | Objectif |
pivot.claude.ai | Toujours | Hôte du complément. Sert l'interface utilisateur du volet des tâches et fait proxy pour l'analyse, la recherche d'icônes et la télémétrie. |
claude.ai/api/ | Toujours | Évaluation des indicateurs de fonctionnalité. Pas de connexion ; le complément récupère uniquement sa configuration à partir d'ici. |
appsforoffice.microsoft.com | Toujours | Script d'exécution Microsoft Office.js (requis par tous les compléments Office). |
login.microsoftonline.com | Toujours | Connexion Microsoft Entra ID via Nested App Auth. Lit la configuration de la passerelle provisionnée par l'administrateur et émet des jetons pour l'authentification cloud directe. |
o1158394.ingest.us.sentry.io | Optionnel | Signalement des pannes et des erreurs. Le blocage de ceci dégrade uniquement les diagnostics ; le complément fonctionne toujours. |
URL de votre passerelle LLM | Si vous utilisez une passerelle LLM | Passerelle LLM de votre organisation (LiteLLM, Portkey, Kong, etc.). L'inférence va ici au lieu de api.anthropic.com. |
sts.amazonaws.com | Si vous utilisez Bedrock directement | AWS STS. Échange le jeton Entra ID contre des identifiants Bedrock temporaires. |
bedrock-runtime.<region>.amazonaws.com | Si vous utilisez Bedrock directement | Point de terminaison d'inférence Bedrock. Remplacez <region> par votre région AWS configurée (par exemple, us-east-1). |
accounts.google.com | Si vous utilisez Vertex AI directement | Écran de consentement Google OAuth. |
oauth2.googleapis.com | Si vous utilisez Vertex AI directement | Échange et actualisation du jeton Google OAuth. |
aiplatform.googleapis.com | Si vous utilisez Vertex AI directement | Point de terminaison d'inférence global Vertex AI. |
<region>-aiplatform.googleapis.com | Si vous utilisez Vertex AI directement | Point de terminaison d'inférence régional Vertex AI. Remplacez <region> par votre région GCP configurée (par exemple, us-east5). |
<resource>.services.ai.azure.com
| Si vous utilisez Foundry directement | Point de terminaison d'inférence Azure AI Foundry. Remplacez <resource> par le nom de votre ressource. |
Déployer le complément pour une utilisation par des tiers (administrateurs informatiques)
Utilisez le plugin claude-in-office pour configurer et déployer le complément dans votre organisation. Cet outil gère l'approvisionnement des ressources cloud (si vous utilisez Bedrock ou Vertex AI direct), la génération du manifeste du complément et l'obtention du consentement administrateur dans un flux guidé unique.
Utiliser l'assistant de configuration
Installez le plugin et exécutez l'assistant de configuration interactif :
claude plugin marketplace add anthropics/financial-services-plugins
claude plugin install claude-in-office@financial-services-plugins
/claude-in-office:setup
L'assistant vous guide à travers votre chemin de connexion :
Passerelle LLM : Collecte votre URL de passerelle et votre jeton, détermine le format d'API à utiliser, génère le manifeste et gère le consentement administrateur Azure.
Bedrock direct : Crée le fournisseur d'identité OIDC IAM et le rôle, génère le manifeste et gère le consentement administrateur Azure.
Vertex AI direct : Vous guide à travers la création du client OAuth Google, génère le manifeste et gère le consentement administrateur Azure.
Foundry direct : Capture
azure_resource_nameetazure_api_key, puis génère le manifeste.
Lorsque l'assistant se termine, le complément est prêt à être déployé à l'échelle du locataire.
Remarque : Les chemins Bedrock et Vertex AI nécessitent Node.js pour la génération et la validation du manifeste. L'assistant le vérifie et vous invite à l'installer s'il est manquant.
Vous pouvez utiliser les commandes suivantes dans une session claude-in-office :
Commande | Ce qu'elle fait |
| Assistant interactif — approvisionne les ressources cloud, consentement administrateur, écrit le manifeste |
| Génère le XML du manifeste du complément personnalisé |
| Génère l'URL de consentement administrateur Azure pour l'enregistrement d'application du complément |
| Écrit la configuration par utilisateur via les attributs d'extension Microsoft Graph |
Ce que l'assistant approvisionne
L'assistant automatise la création de ressources en fonction de votre chemin de connexion. Voici ce qu'il configure :
Passerelle LLM : Aucune ressource cloud à approvisionner. L'assistant collecte votre URL de passerelle et votre jeton, puis génère le manifeste.
Bedrock direct : Crée un fournisseur d'identité OIDC IAM qui fait confiance aux jetons Microsoft Entra ID, un rôle avec les autorisations bedrock:InvokeModel et bedrock:InvokeModelWithResponseStream, et une politique de confiance limitée à l'ID d'application du complément Claude.
Vertex AI direct : Vous guide à travers la création d'un client OAuth Google dans la console GCP (cette étape ne peut pas être automatisée via CLI), active l'API Vertex AI et capture l'ID client et le secret pour le manifeste.
Foundry direct : Aucune ressource cloud à approvisionner ; l'assistant collecte le nom de la ressource et la clé API pour le manifeste.
Configuration par utilisateur
Si certaines valeurs varient par utilisateur — par exemple, des jetons de passerelle différents ou des rôles AWS différents pour différentes équipes — l'assistant peut écrire la configuration par utilisateur via les attributs d'extension Microsoft Graph. Exécutez /claude-in-office:update-user-attrs avec les clés par utilisateur après la configuration initiale.
Déployer vers Microsoft 365
Après que l'assistant génère votre manifeste :
Ouvrez le Centre d'administration Microsoft 365 et accédez à Paramètres > Applications intégrées > Télécharger des applications personnalisées.
Sélectionnez « Complément Office » comme type d'application, puis téléchargez le fichier manifest.xml.
Choisissez qui obtient le complément :
Si tous les utilisateurs partagent la même configuration, sélectionnez « Toute l'organisation ».
Si vous avez écrit des attributs par utilisateur à l'étape précédente, assignez à Utilisateurs/groupes spécifiques correspondant exactement à ceux qui ont été configurés. Tous les autres ouvriraient le complément sans configuration.
Acceptez les autorisations et terminez le déploiement.
La propagation aux utilisateurs prend jusqu'à 24 heures (généralement beaucoup plus rapide). Le complément apparaît sous Accueil > Compléments dans Excel, PowerPoint et Word une fois qu'il arrive.
Remarque : Commencez par un groupe pilote pour confirmer que le complément fonctionne, puis élargissez l'assignation. Vous pouvez modifier l'assignation ultérieurement sans redéployer.
Après avoir déployé le complément, vos utilisateurs peuvent se connecter en suivant les étapes ci-dessous.
Instructions de connexion pour les utilisateurs finaux
Passerelle LLM
Ouvrez Excel, PowerPoint ou Word et lancez le complément Claude.
Sur l'écran de connexion, sélectionnez « Passerelle d'entreprise ».
Entrez l'URL de la passerelle et le jeton API fournis par votre équipe informatique.
URL de la passerelle : L'URL de base HTTPS de votre proxy LLM (par exemple, https://llm-gateway.yourcompany.com).
Jeton API : Le jeton porteur que votre proxy attend. Le complément l'envoie dans l'en-tête Authorization: Bearer <token> avec chaque requête.
Le complément vérifie la connexion en envoyant une requête de test à la passerelle. Si elle réussit, vous verrez l'expérience principale de l'application.
Vos identifiants sont stockés localement dans le localStorage de votre navigateur dans l'iframe en bac à sable du complément. Ils ne sont pas synchronisés avec les serveurs d'Anthropic. Parce que le complément Office s'exécute dans un iframe en bac à sable au sein de l'application Microsoft, il ne peut pas utiliser votre trousseau du système d'exploitation comme le fait Claude Code — pour cette raison, entrez uniquement les jetons émis par la passerelle, pas les identifiants bruts du fournisseur cloud.
Bedrock, Vertex AI ou Foundry direct
Ouvrez Excel, PowerPoint ou Word et lancez le complément Claude.
Authentifiez-vous en utilisant la méthode de votre fournisseur :
Bedrock ou Vertex AI : Connectez-vous avec votre compte professionnel Microsoft. Le complément utilise votre jeton Entra ID pour s'authentifier auprès de votre fournisseur cloud—aucune information d'identification cloud distincte n'est nécessaire.
Foundry : Si votre administrateur a prérempli le nom de la ressource Azure et la clé API, le complément se connecte automatiquement. Sinon, entrez les valeurs fournies par votre équipe informatique et sélectionnez Connecter.
Le complément lit la configuration que votre administrateur a configurée et se connecte directement à Bedrock ou Vertex AI.
Si vous voyez une erreur lors de la connexion, confirmez avec votre équipe informatique que votre compte se trouve dans le groupe assigné au complément.
Modifier ou mettre à jour votre connexion
Si votre jeton API expire ou si votre équipe informatique vous donne une nouvelle URL, accédez à "Paramètres" dans la barre latérale du complément, entrez les nouvelles valeurs et sélectionnez "Tester la connexion."
Exigences de passerelle pour les équipes informatiques
Les compléments Office prennent en charge les trois mêmes formats d'API que Claude Code. Définissez gateway_api_format dans votre manifeste de complément pour indiquer au complément quel format votre passerelle utilise.
Exigences CORS
Le volet des tâches du complément se charge à partir de https://pivot.claude.ai. Chaque demande à votre passerelle est donc multi-origine, et le navigateur supprimera silencieusement toute réponse dépourvue d'en-têtes CORS.
Votre passerelle doit retourner Access-Control-Allow-Origin: https://pivot.claude.ai (ou *) sur chaque réponse : GET, POST, OPTIONS et toutes les réponses d'erreur. Le définir uniquement sur le préflight OPTIONS n'est pas suffisant. Pour le préflight, retournez Access-Control-Allow-Headers: *.
Points de terminaison requis
Les points de terminaison que votre passerelle doit exposer dépendent du format d'API qu'elle utilise. Définissez gateway_api_format dans votre manifeste pour correspondre.
gateway_api_format : anthropic (par défaut)
Point de terminaison | Description |
POST /v1/messages | Envoyez des messages à Claude. Prend en charge les réponses en continu et non-continu. |
GET /v1/models | Listez les modèles disponibles. |
gateway_api_format : bedrock
Point de terminaison | Description |
POST /model/{model-id}/invoke | Envoyez un message et recevez une réponse complète. |
POST /model/{model-id}/invoke-with-response-stream | Envoyez un message et recevez une réponse en continu. |
Passage direct natif Bedrock InvokeModel. gateway_url doit pointer vers le préfixe de passage direct (par exemple, https://litellm.example.com/bedrock).
gateway_api_format : vertex
Point de terminaison | Description |
POST /projects/{project}/locations/{region}/publishers/anthropic/models/{model-id}:rawPredict | Envoyez un message et recevez une réponse complète. |
POST /projects/{project}/locations/{region}/publishers/anthropic/models/{model-id}:streamRawPredict | Envoyez un message et recevez une réponse en continu. |
Passage direct natif Vertex. gateway_url doit inclure le segment de version API (par exemple, https://litellm.example.com/vertex_ai/v1). Nécessite également gcp_project_id et gcp_region pour que le complément puisse construire le chemin.
En-tête requis
Pour les formats anthropic et vertex, la passerelle doit transférer l'en-tête de demande anthropic-version au fournisseur en amont.
Pour le format bedrock, le SDK place anthropic_version dans le corps de la demande à la place—la passerelle doit le préserver là.
Le non-transfert de l'en-tête ou la non-préservation du champ du corps peut entraîner une réduction des fonctionnalités ou empêcher le complément de fonctionner.
En-tête d'autorisation
Le complément peut envoyer le jeton d'autorisation de votre passerelle dans l'en-tête x-api-key ou Authorization.
Découverte de modèle
À la connexion, le complément tente de découvrir les modèles Claude disponibles via GET /v1/models. Si votre passerelle n'expose pas une liste de modèles à ce chemin, le complément revient à demander manuellement à l'utilisateur un ID de modèle.
Différences par rapport à la configuration de la passerelle Claude Code
Aspect | Claude Code | Claude pour Excel, PowerPoint et Word |
Stockage des identifiants | Trousseau du système d'exploitation ou variables d'environnement | localStorage du navigateur (iframe en sandbox) |
Configuration de l'authentification | Variables d'environnement, fichier de configuration, scripts d'assistance | Saisie manuelle dans l'interface du complément (passerelle), Entra ID (cloud direct) ou clé API Azure (Foundry) |
Actualisation du jeton | Prend en charge les scripts d'assistance pour la rotation | Resaisie manuelle dans les paramètres (passerelle) ou automatique via Entra ID (cloud direct) |
Noms de modèles personnalisés | Configurable via variables d'environnement | Non configurable dans la v1 |
Exemple de configuration de passerelle avec LiteLLM
Avertissement : Les versions 1.82.7 et 1.82.8 de LiteLLM PyPI ont été compromises par un malware voleur d'identifiants. N'installez pas ces versions. Si vous les avez déjà installées :
Supprimez le paquet
Renouvelez tous les identifiants sur les systèmes affectés
Suivez les étapes de correction dans BerriAI/litellm#24518
LiteLLM est un service de proxy tiers. Anthropic n'approuve pas, ne maintient pas et n'audite pas la sécurité ou les fonctionnalités de LiteLLM. Ce guide est fourni à titre informatif et peut devenir obsolète. À utiliser à votre discrétion.
De nombreuses organisations utilisent LiteLLM comme passerelle. Voici un fichier litellm_config.yaml minimal pour acheminer les demandes du complément Office vers Anthropic, Bedrock ou Vertex.
Acheminement vers Anthropic directement
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: claude-sonnet-4-5-20250929
api_key: os.environ/ANTHROPIC_API_KEY
litellm_settings:
drop_params: true
Acheminement vers Amazon Bedrock
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: bedrock/anthropic.claude-sonnet-4-5-20250929-v1:0
aws_region_name: us-east-1
litellm_settings:
drop_params: true
Acheminement vers Google Cloud Vertex AI
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: vertex_ai/claude-sonnet-4-5-20250929
vertex_project: your-gcp-project-id
vertex_location: us-east5
litellm_settings:
drop_params: true
Acheminement vers Azure
yaml
model_list:
- model_name: claude-sonnet-4-5-20250929
litellm_params:
model: azure_ai/claude-sonnet-4-5-20250929
api_base: https://your-resource.services.ai.azure.com/anthropic
api_key: os.environ/AZURE_API_KEY
extra_headers:
x-api-key: os.environ/AZURE_API_KEY
litellm_settings:
drop_params: true
Pour des instructions de configuration détaillées, consultez la documentation du format Anthropic de LiteLLM.
Ce qu'Anthropic collecte
Même lorsque l'inférence passe par votre propre infrastructure, le complément communique avec pivot.claude.ai pour charger son interface et avec claude.ai/api/ pour évaluer les drapeaux de fonctionnalités. Ces connexions transmettent la télémétrie opérationnelle—telle que les fonctionnalités utilisées, les délais de performance et les taux d'erreur—afin qu'Anthropic puisse maintenir et améliorer l'expérience du complément. Elles ne transmettent pas vos invites ou les réponses de Claude.
Anthropic collecte les informations conformément aux conditions d'AWS Bedrock, Google Cloud Vertex AI ou Microsoft Azure, en accord avec les arrangements d'Anthropic avec les clients. Anthropic n'a pas accès à l'instance AWS, Google ou Microsoft d'un client, y compris les invites ou les résultats qu'elle contient. Anthropic n'entraîne pas les modèles génératifs avec ce contenu et ne l'utilise pas à d'autres fins. Anthropic peut accéder aux métadonnées—telles que l'utilisation d'outils, les comptages de jetons et éléments similaires—et utiliser ces métadonnées à des fins analytiques et d'amélioration des produits.
Pour plus de détails sur ce que votre passerelle organisationnelle ou votre fournisseur de cloud enregistre, contactez votre équipe informatique.
Pour acheminer une piste d'audit complète—y compris les invites, les entrées d'outils, les résultats d'outils et les références de documents—vers votre propre infrastructure, consultez Configurer un collecteur OpenTelemetry personnalisé pour les agents Office.
Comment cela diffère de la connexion avec un compte Claude
Lorsque vous vous connectez avec un compte Claude, les compléments se connectent directement à Anthropic. Lorsque vous vous connectez via une plateforme tierce, les compléments envoient les demandes d'inférence à l'infrastructure de votre organisation à la place, et votre équipe informatique contrôle la façon dont ce trafic est acheminé et enregistré.
Certaines fonctionnalités qui dépendent d'un compte Claude ne sont pas encore disponibles via les plateformes tierces, mais nous travaillons à l'ajout du support :
Fonctionnalité | Compte Claude | Plateforme tierce |
Discuter avec votre feuille de calcul, présentation ou document | ✓ | ✓ |
Lire et modifier les cellules, diapositives, formules et texte du document | ✓ | ✓ |
Connecteurs (S&P, FactSet, etc.) | ✓ | Bientôt disponible |
Travailler entre les applications | ✓ | — |
Compétences | ✓ | Bientôt disponible |
Téléchargements de fichiers | ✓ | — |
Recherche web | ✓ | Vertex uniquement |
Si votre équipe a besoin de ces fonctionnalités, parlez à votre administrateur Claude pour déterminer le chemin de connexion qui convient à votre organisation.
Dépannage
« Connexion refusée » ou erreur réseau
L'URL de la passerelle ou le point de terminaison cloud est inaccessible depuis le réseau de l'utilisateur. Vérifiez que l'URL est correcte, que le service est en cours d'exécution et qu'aucune restriction de pare-feu ou VPN ne bloque la connexion. Consultez la section Liste d'autorisation réseau ci-dessus pour confirmer que tous les domaines requis sont autorisés.
401 Non autorisé ou « Jeton invalide »
Le jeton d'authentification est invalide ou expiré. Pour les connexions de passerelle, confirmez le jeton auprès de votre équipe informatique. Pour les connexions cloud directes, vérifiez que le compte Entra ID de l'utilisateur se trouve dans le groupe assigné et que la confiance OIDC ou le client OAuth est configuré correctement. Pour Foundry, régénérez la clé dans le portail Azure → Clés et point de terminaison.
403 Accès interdit ou « Accès refusé »
Le jeton est valide mais ne dispose pas des bonnes permissions. Pour Bedrock, vérifiez que le rôle IAM dispose des permissions bedrock:InvokeModel. Pour Vertex, vérifiez que le compte de service dispose des permissions aiplatform.endpoints.predict. Pour les passerelles, vérifiez l'étendue du jeton auprès de votre administrateur informatique. Pour Foundry, vérifiez les règles de mise en réseau de la ressource ou confirmez que la clé appartient à la bonne ressource.
404 Non trouvé
Le complément n'a pas pu atteindre le chemin d'API attendu. Pour les passerelles, vérifiez que l'URL est l'URL de base (par exemple, https://litellm-server:4000)—don't n'incluez pas /v1/messages dans le champ URL.
500 ou autres erreurs serveur
La passerelle ou le fournisseur cloud a rencontré une erreur interne. Vérifiez les journaux de votre passerelle (par exemple, docker logs litellm si vous utilisez LiteLLM) pour les erreurs du fournisseur en amont. Réessayez la demande et contactez votre administrateur informatique si le problème persiste.
« Aucun modèle disponible »
Le complément n'a pas pu trouver les modèles Claude. Pour les passerelles, votre passerelle peut ne pas exposer une liste de modèles à GET /v1/models. Votre équipe informatique peut soit configurer la passerelle pour servir une liste de modèles, soit vous donner un ID de modèle spécifique à entrer manuellement. Pour Bedrock ou Vertex, confirmez qu'au moins un modèle Claude (Claude Sonnet 4.5 ou version ultérieure) est activé dans votre compte et région. Pour Foundry, confirmez qu'au moins un modèle Claude est déployé dans la ressource (Catalogue de modèles).
Les réponses en continu échouent ou se figent
Vérifiez que votre passerelle prend en charge le passage Server-Sent Events (SSE). Certaines configurations de proxy suppriment ou mettent en mémoire tampon les connexions SSE, ce qui empêche les réponses en continu d'atteindre le complément.
Une fonctionnalité que j'attendais n'est pas disponible
Les connecteurs, les compétences, les téléchargements de fichiers et la collaboration entre applications ne sont pas encore disponibles via des plateformes tierces. Si vous en avez besoin, demandez à votre administrateur de vous connecter avec un compte Claude à la place.
