

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Optimisation des capacités, des limites et des coûts
<a name="capacity-limits-cost-optimization"></a>

Amazon Bedrock propose des options de capacité flexibles adaptées à vos exigences en matière de charge de travail et à votre budget. Comprendre les différences entre les niveaux à la demande (Flex, Priority, Standard), les niveaux réservés, le traitement par lots et l'inférence entre régions vous permet d'optimiser à la fois les performances et les coûts.

# Niveaux de service pour optimiser les performances et les coûts
<a name="service-tiers-inference"></a>

Amazon Bedrock propose quatre niveaux de service pour l'inférence de modèles : Reserved, Priority, Standard et Flex. Les niveaux de service vous permettent d'optimiser la disponibilité, les coûts et les performances.

## Niveau réservé
<a name="w2aac26b5b5"></a>

Le niveau réservé permet de réserver des capacités de calcul prioritaires pour vos applications critiques qui ne peuvent tolérer aucun temps d'arrêt. Vous avez la flexibilité d'allouer différentes tokens-per-minute capacités d'entrée et de sortie pour répondre aux exigences exactes de votre charge de travail et contrôler les coûts. Lorsque votre application a besoin d'une tokens-per-minute capacité supérieure à celle que vous avez réservée, le service passe automatiquement au niveau Standard, garantissant ainsi des opérations ininterrompues. Le niveau réservé vise un temps de disponibilité de 99,5 % pour la réponse du modèle. Les clients peuvent réserver des capacités pour une durée d'un mois ou de trois mois. Les clients paient un prix fixe par 1 000\$1 tokens-per-minute et sont facturés mensuellement.

Pour accéder au niveau réservé, contactez l'équipe chargée de votre compte AWS.

**Note**  
La facturation se poursuit jusqu'à ce que vous supprimiez la réservation du niveau réservé avec l'aide de votre Compte AWS responsable.

## Niveau de priorité
<a name="w2aac26b5b7"></a>

Le niveau Priority offre les temps de réponse les plus rapides pour un prix supérieur à la tarification standard à la demande. Il convient parfaitement aux applications critiques dont les flux de travail commerciaux destinés aux clients ne justifient pas une réservation de capacité 24 heures sur 24, 7 jours sur 7. Le niveau prioritaire ne nécessite pas de réservation préalable. Vous pouvez simplement définir le paramètre optionnel « service\$1tier » sur « priority » pour bénéficier de la priorisation au niveau des demandes. Les demandes de niveau prioritaire sont prioritaires par rapport aux demandes de niveau Standard et Flex.

## Niveau standard
<a name="w2aac26b5b9"></a>

Le niveau Standard fournit des performances constantes pour les tâches quotidiennes d'IA telles que la génération de contenu, l'analyse de texte et le traitement de routine des documents. Par défaut, toutes les demandes d'inférence sont acheminées vers le niveau Standard lorsque le paramètre « service\$1tier » est manquant. Vous pouvez également définir le paramètre optionnel « service\$1tier » sur « default » pour que votre demande d'inférence soit traitée avec le niveau Standard.

## Niveau flexible
<a name="w2aac26b5c11"></a>

Pour les charges de travail qui peuvent supporter des délais de traitement plus longs, le niveau Flex permet un traitement rentable à un prix discount. Cela vous permet d'optimiser le coût des charges de travail telles que les évaluations de modèles, la synthèse du contenu et les flux de travail agentiques. Vous pouvez définir le paramètre optionnel « service\$1tier » sur « flex » pour que votre demande d'inférence soit traitée avec le niveau Flex et bénéficier de la réduction tarifaire.

## Utilisation de la fonctionnalité du niveau de service
<a name="w2aac26b5c13"></a>

Pour accéder à la fonctionnalité du niveau de service, vous pouvez définir le paramètre optionnel « service\$1tier » sur « reserved », « priority », « default » ou « flex » lorsque vous appelez l'API d'exécution Amazon Bedrock.

```
"service_tier" : "reserved | priority | default | flex"
```

Votre quota à la demande pour un modèle est partagé entre les niveaux de service « prioritaire », « par défaut » et « flexible ». Votre réservation de capacité au niveau « réservé » est distincte de votre quota à la demande. La configuration du niveau de service pour une demande traitée est visible dans la réponse de l'API et dans les CloudTrail événements AWS. Vous pouvez également consulter les statistiques du niveau de service dans Amazon CloudWatch Metrics sous ModelId ServiceTier, et ResolvedServiceTier, où ResolvedServiceTier indique le niveau réel qui a répondu à vos demandes.

Pour plus d’informations sur la tarification, visitez la [page de tarification](https://aws.amazon.com/bedrock/pricing/).

Modèles et régions pris en charge par le niveau de service réservé :


|  |  |  |  | 
| --- |--- |--- |--- |
| Fournisseur | Modèle | Modèle IDs | Régions | 
| Anthropic | Claude Sonnet 4.6 | global.anthropic.claude-sonnet-4-6us.anthropic.claude-sonnet-4-6eu.anthropic.claude-sonnet-4-6 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| me-south-1 | 
| ap-southeast-7 | 
| af-south-1 | 
| me-central-1 | 
| ap-southeast-5 | 
| mx-central-1 | 
| il-central-1 | 
| ap-east-2 | 
| ca-west-1 | 
| Anthropic | Claude Opus 4.6 | global.anthropic.claude-opus-4-6-v1us.anthropic.claude-opus-4-6-v1eu.anthropic.claude-opus-4-6-v1 | af-south-1 | 
| ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-south-1 | 
| ap-south-2 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| me-south-1 | 
| mx-central-1 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Anthropic | Claude Sonnet 4.5 | global.anthropic.claude-sonnet-4-5-20250929-v 1:0us.anthropic.claude-sonnet-4-5-20250929-v 1:0eu.anthropic.claude-sonnet-4-5-20250929-v 1:0us-gov.anthropic.claude-sonnet-4-5-20250929-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| us-gov-west-1 | 
| Anthropic | Claude Opus 4.5 | global.anthropic.claude-opus-4-5-20251101-v 1:0us.anthropic.claude-opus-4-5-20251101-v 1:0eu.anthropic.claude-opus-4-5-20251101-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Anthropic | Claude Haiku 4.5 | global.anthropic.claude-haiku-4-5-20251001-v 1:0us.anthropic.claude-haiku-4-5-20251001-v 1:0eu.anthropic.claude-haiku-4-5-20251001-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 

**Note**  
La longueur de contexte de 1 million de dollars pour Sonnet 4.5 n'est pas prise en charge par le niveau réservé.

Modèles et régions pris en charge par les niveaux de service Priority et Flex :


|  |  |  |  | 
| --- |--- |--- |--- |
| Fournisseur | Modèle | ID du modèle | Régions | 
| OpenAI | gpt-oss-120b | openai.gpt-oss-120b- 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| OpenAI | gpt-oss-20b | openai.gpt-oss-20b-1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| OpenAI | GPT OSS Safeguard 20B | openai. gpt-oss-safeguard-20b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| OpenAI | GPT OSS Safeguard 120B | openai. gpt-oss-safeguard-120 b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Qwen | Qwen3 235B A2B 2507 | qwen.qwen3-235b-a22b-2507-v 1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-2 | 
| Qwen | Instruction du codeur Qwen3 480B A35B | qwen.qwen3-code-480b-a35b-v 1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-north-1 | 
| eu-west-2 | 
| Qwen | Qwen3-Coder-30B-A3B-Instruct | qwen.qwen3-code-30b-a3b-v 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| Qwen | Qwen3 32B (dense) | qwen.qwen3-32b-v 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| Qwen | Qwen3 Next 80B A3B | qwen.qwen3-next-80b-a3b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Qwen | Qwen3 VL 235B A2B | qwen.qwen3-vl-235b-a22b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| DeepSeek | DeepSeek-V3,1 | deepseek.v3-v 1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-north-1 | 
| eu-west-2 | 
| Amazon | Nova Premier | amazon. nova-premier-v1:0 | us-east-1\$1 | 
| us-east-2\$1 | 
| us-west-2\$1 | 
| Amazon | Nova Pro | amazon. nova-pro-v1:0 | us-east-1 | 
| us-east-2\$1 | 
| us-ouest-1\$1 | 
| us-west-2\$1 | 
| ap-east-2\$1 | 
| ap-northeast-1\$1 | 
| ap-northeast-2\$1 | 
| ap-south-1\$1 | 
| ap-southeast-1\$1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-sud-est 4\$1 | 
| ap-sud-est 5\$1 | 
| ap-sud-est 7\$1 | 
| eu-central-1\$1 | 
| UE-nord-1\$1 | 
| UE-sud-1\$1 | 
| UE-Sud-2\$1 | 
| eu-west-1\$1 | 
| eu-west-2 | 
| eu-west-3\$1 | 
| il-central-1\$1 | 
| me-central-1 | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0 | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Amazon | Aperçu de Nova 2 Pro | amazon.nova-2-pro-preview-20251202-v 1:0 | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Amazon | Nova Lite 2 Omni | amazon.nova-2- 1 lite-omni-v | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Google | Gemma 3 4B | google.gemma-3-4b-fr | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Google | Gemma 3 12B | google.gemma-3-12b-fr | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Google | Gemma 3 27B | google.gemma-3-27b-fr | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| IA Minimax | Minimax M2 | minimax.minimax-m2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Magistral Small 1.2 | mistral.magistral-small-2509 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Voxtral Mini 1.0 | mistral.voxtral-mini-3b-2507 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Voxtral Small 1.0 | mistral.voxtral-small-24b-2507 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 3B 3.0 | mistral.ministral-3-3b-instruction | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 8B 3.0 | mistral.ministral-3-8b-instruction | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 14B 3.0 | mistral.ministral-3-14b-instruction | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Mistral Large 3 | mistral.mistral-large-3-675b-instruction | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Kimi AI | Kimi K2 Thinking | moonshot.kimi-k2-thinking | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Nvidia | NVIDIA Némotron Nano 2 | nvidia.nemotron-nano-9b-v2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Nvidia | NVIDIA Nemotron Nano 2 VL | nvidia.nemotron-nano-12b-v2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 

 \$1L'inférence du modèle peut être utilisée en utilisant plusieurs régions. 

Pour contrôler l'accès aux niveaux de service, reportez-vous à [Contrôlez l'accès aux niveaux de service](security_iam_id-based-policy-examples-agent.md#security_iam_id-based-policy-examples-service-tiers)

## Options de capacité
<a name="capacity-options"></a>


| Type de capacité | Cas d’utilisation | Principales caractéristiques | 
| --- | --- | --- | 
| À la demande : Flex | Charges de travail sporadiques et peu volumineuses |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| À la demande : Standard | Charges de travail de production régulières |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| À la demande : priorité | Applications hautement prioritaires et sensibles à la latence |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Niveau réservé | Charges de travail cohérentes et volumineuses |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Par lots |  non-time-sensitiveTraitement à grande échelle |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Inférence interrégionale | Haute disponibilité, trafic intense |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 

## Limites et quotas
<a name="limits-quotas"></a>

### Limites à la demande (par niveau)
<a name="on-demand-limits"></a>


| Tier | Plage de tours par minute | Gamme TPM | Risque d'étranglement | 
| --- | --- | --- | --- | 
| Flex | 10 à 100 | 5 À 50 000 | Élevée | 
| Standard | 100-500 | 50 À 150 000 | Moyenne | 
| Priority | 500-1000\$1 | 150 À 300 K\$1 | Faible | 
+ Capacité de rafale : disponible sur tous les niveaux pour les pointes courtes
+ Limites souples : augmentables via des demandes de quotas de service
+ Spécifique au modèle : les limites réelles varient selon le modèle de fondation

### Limites des niveaux réservés
<a name="reserved-tier-limits"></a>
+ Engagement minimum : 1 unité modèle
+ Nombre maximum d'unités : spécifiques au compte et à la région
+ Limites de jetons d'entrée/sortie : basées sur les unités achetées
+ Aucune limitation du régime par minute dans les limites de la capacité achetée

### Limites de traitement par lots
<a name="batch-processing-limits"></a>
+ Taille du job : jusqu'à 10 000 enregistrements par lot
+ Taille du fichier : 200 Mo de fichier d'entrée maximum
+ Temps de traitement : fenêtre de traitement de 24 heures
+ Emplois simultanés : quotas spécifiques à la région

### Inférence interrégionale
<a name="cross-region-inference-limits"></a>
+ Hérite des limites de niveau à la demande par région
+ Aucune surcharge supplémentaire liée aux quotas
+ Routage automatique (aucune gestion manuelle des limites)

## Optimisation des coûts
<a name="cost-optimization"></a>

### Cadre décisionnel
<a name="decision-framework"></a>


| Scénario | Option recommandée | Pourquoi | 
| --- | --- | --- | 
| Développement/test | Flex | Coût le plus bas, acceptable pour la non-production | 
| Production standard | Standard | Meilleur équilibre coût-performance | 
| Applications critiques destinées aux utilisateurs | Priority | Fiabilité et performance par rapport aux coûts | 
| Charge volumique élevée et constante | Niveau réservé | 30 à 50 % d'économies avec engagement | 
| Traitement de données en masse | Par lots | 50 % de discount, charges de travail non urgentes | 
| Temps de disponibilité critique | Inférence interrégionale | Disponibilité > coût | 

### Stratégies d'optimisation
<a name="optimization-strategies"></a>

**Choisissez le bon niveau à la demande**
+ Commencez par la norme pour la plupart des charges de travail
+ Rétrograder vers Flex pour les environnements dev/test 
+ Passez à la priorité uniquement lorsque la limitation a un impact sur les utilisateurs
+ Surveillez les indicateurs d' CloudWatch accélération pour prendre des décisions éclairées

**Transition vers le niveau réservé**
+ Lorsque la charge constante dépasse 40 % des coûts à la demande
+ Calculez le seuil de rentabilité : (coût mensuel à la demande) ou (engagement réservé)
+ Utilisez un engagement d'un mois dans un premier temps
+ Le niveau réservé peut fonctionner parallèlement à n'importe quel niveau à la demande

**Tirez parti de Batch pour**
+ Génération de données de formation
+ Backlogs de modération du contenu
+ Génération de rapports
+ Pipelines d'enrichissement des données

**Combinez les approches**
+ Niveau réservé pour le trafic de base
+ Standard à la demande pour des rafales modérées
+ Priorité à la demande pendant les périodes de pointe critiques
+ Batch pour le traitement hors ligne
+ Interrégional pour le basculement uniquement

**Surveillance des coûts**
+ Comparez les coûts des niveaux : Flex < Standard < Priority
+ Suivez les jetons par demande (optimisez les instructions)
+ Utiliser CloudWatch des métriques pour l'utilisation et la régulation
+ Définissez des alarmes de facturation en cas de pics inattendus
+ Passez en revue l'utilisation des niveaux réservés tous les mois
+ Évaluez les mises à niveau uniquement en cas de ralentissement

# Traitement de plusieurs invites grâce à l’inférence par lots
<a name="batch-inference"></a>

Grâce à l’inférence par lots, vous pouvez envoyer plusieurs invites et générer des réponses de manière asynchrone. Vous pouvez formater vos données d'entrée en utilisant le format `InvokeModel` ou le format `Converse` API. L’inférence par lots vous permet de traiter efficacement un grand nombre de demandes en envoyant une seule demande et en générant des réponses dans un compartiment Amazon S3. Après avoir défini les entrées du modèle dans les fichiers que vous créez, vous chargez les fichiers dans un compartiment S3. Vous soumettez ensuite une demande d’inférence par lots et spécifiez le compartiment S3. Une fois la tâche terminée, vous pouvez extraire les fichiers de sortie depuis S3. Vous pouvez utiliser l’inférence par lots pour améliorer les performances de l’inférence des modèles sur les jeux de données volumineux.

**Note**  
L’inférence par lots n’est pas prise en charge pour les modèles provisionnés.

Consultez les ressources suivantes pour obtenir des informations générales sur l'inférence par lots :
+ Pour connaître les tarifs de l’inférence par lots, consultez [Tarification Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ Pour voir les quotas pour l’inférence par lots, consultez [Points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) dans la Références générales AWS.
+ Pour recevoir des notifications lorsque les tâches d'inférence par lots sont terminées ou changent d'état au lieu d'être interrogées, consultez[Surveillez l'évolution de l'état des tâches sur Amazon Bedrock à l'aide d'Amazon EventBridgeSurveiller les modifications des événements](monitoring-eventbridge.md).

**Topics**
+ [Régions et modèles pris en charge pour l’inférence par lots](batch-inference-supported.md)
+ [Conditions préalables pour l’inférence par lots](batch-inference-prereq.md)
+ [Création d'une tâche d'inférence par lots](batch-inference-create.md)
+ [Surveillance des tâches d’inférence par lots](batch-inference-monitor.md)
+ [Arrêt d’une tâche d’inférence par lots](batch-inference-stop.md)
+ [Affichage des résultats d’une tâche d’inférence par lots](batch-inference-results.md)
+ [Exemple de code pour l’inférence par lots](batch-inference-example.md)
+ [Soumission d’un lot d’invites à l’aide de l’API OpenAI Batch](inference-openai-batch.md)

# Régions et modèles pris en charge pour l’inférence par lots
<a name="batch-inference-supported"></a>

La liste suivante fournit des liens vers des informations générales sur la prise en charge des régions et des modèles dans Amazon Bedrock :
+ Pour obtenir la liste des codes de région et des points de terminaison pris en charge dans Amazon Bedrock, consultez [Points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bedrock_region).
+ Pour obtenir la liste des modèles Amazon Bedrock IDs à utiliser lors de l'appel des opérations d'API Amazon Bedrock, consultez. [Modèles de fondation pris en charge dans Amazon Bedrock](models-supported.md)
+ Pour obtenir la liste des profils d'inférence Amazon Bedrock IDs à utiliser lors de l'appel des opérations de l'API Amazon Bedrock, consultez. [Profils d'inférence interrégionaux pris en charge](inference-profiles-support.md#inference-profiles-support-system)

L'inférence par lots peut être utilisée avec différents types de modèles. La liste suivante décrit la prise en charge des différents types de modèles Amazon Bedrock :
+ **Support des modèles à région unique** : répertorie les régions qui prennent en charge l'envoi de demandes d'inférence à un modèle de base dans une AWS région. Pour un tableau complet des modèles disponibles sur Amazon Bedrock, consultez[Modèles de fondation pris en charge dans Amazon Bedrock](models-supported.md).
+ **Prise en charge des profils d'inférence interrégionaux** : répertorie les régions qui prennent en charge l'utilisation d'un profil d'inférence interrégional, qui prend en charge l'envoi de demandes d'inférence à un modèle de base dans plusieurs AWS régions d'une même zone géographique. Un profil d'inférence comporte un préfixe précédant l'ID du modèle qui indique sa zone géographique (par exemple,`us.`,`apac`). Pour plus d'informations sur les profils d'inférence disponibles sur Amazon Bedrock, consultez. [Régions et modèles pris en charge pour les profils d'inférence](inference-profiles-support.md)
+ **Prise en charge des modèles personnalisés** : répertorie les régions qui prennent en charge l'envoi de demandes d'inférence vers un modèle personnalisé. Pour plus d'informations sur la personnalisation des modèles, consultez[Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation](custom-models.md).

Le tableau suivant récapitule la prise en charge de l'inférence par lots :


| Fournisseur | Modèle | ID du modèle | Support du modèle à région unique | Prise en charge des profils d'inférence entre régions | Support de modèles personnalisés | 
| --- | --- | --- | --- | --- | --- | 
| Amazon | Intégrations multimodales Amazon Nova | amazon.nova-2- 1:0 multimodal-embeddings-v |  us-east-1  |  | N/A | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0 | N/A |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Nova Lite | amazon. nova-lite-v1:0 |  me-central-1 us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Nova Micro | amazon. nova-micro-v1:0 |  us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-2  | N/A | 
| Amazon | Nova Premier | amazon. nova-premier-v1:0 | N/A |  us-east-1 us-east-2 us-west-2  | N/A | 
| Amazon | Nova Pro | amazon. nova-pro-v1:0 |  ap-southeast-3 me-central-1 us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Titan Multimodal Embeddings G1 | amazon. titan-embed-image-v1 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  |  us-east-1 us-west-2  | 
| Amazon | Titan Text Embeddings V2 | amazon. titan-embed-text-v2:0 |  ap-northeast-1 ap-northeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-2 sa-east-1 us-east-1 us-west-2  |  | N/A | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | N/A | N/A | 
| Anthropic | Claude 3 Opus | anthropic.claude-3-opus-20240229-v 1:0 |  us-west-2  |  us-east-1  | N/A | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:0 |  ap-northeast-2 ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  |  us-east-1  | N/A | 
| Anthropic | Sonnet de Claude 3.5 | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1 us-east-1 us-east-2 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  us-west-2  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 us-east-1 us-east-2 us-west-2  | N/A | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | N/A | 
| Anthropic | Claude Haiku 4.5 | anthropic.claude-haiku-4-5-20251001-v1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Opus 4.5 | anthropic.claude-opus-4-5-20251101-v 1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Opus 4.6 | anthropic.claude-opus-4-6-v1 | N/A |  af-south-1 ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | N/A |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Sonnet 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | N/A |  af-south-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Sonnet 4.6 | anthropic.claude-sonnet-4-6 |  eu-west-2  |  af-south-1 ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| DeepSeek | DeepSeek V3.2 | deepseek.v3.2 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| DeepSeek | DeepSeek-V3,1 | deepseek.v3-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 us-east-2 us-west-2  |  | N/A | 
| Google | Gemma 3 12B IT | google.gemma-3-12b-fr |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Google | Gemma 3 27B PT | google.gemma-3-27b-fr |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Google | Gemma 3 4B IT | google.gemma-3-4b-fr |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Meta | Llama 3.1 405B Instruct | meta.llama3-1-405 1:0 b-instruct-v |  us-west-2  |  | N/A | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70 1:0 b-instruct-v |  us-west-2  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.1 8B Instruct | meta.llama3-1-8 1:0 b-instruct-v |  us-west-2  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 11B Instruct | meta.llama3-2-11 1:0 b-instruct-v |  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 1B Instruct | meta.llama3-2-1 1:0 b-instruct-v |  |  eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 3B Instruct | meta.llama3-2-3 1:0 b-instruct-v |  |  eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 90B Instruct | meta.llama3-2-90 1:0 b-instruct-v |  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.3 70B Instruct | meta.llama3-3-70 1:0 b-instruct-v |  us-east-2  |  us-east-1 us-east-2 us-west-2  | N/A | 
| Meta | Llama 4 Maverick 17B Instruct | meta.llama4-maverick-17 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Meta | Llama 4 Scout 17B Instruct | meta.llama4-scout-17 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| MiniMax | MiniMax M2 | minimax.minimax-m2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| MiniMax | MiniMax M2.1 | minimax.minimax-m2.1 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Devstral 2 123B | mistral.devstral-2-123b |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Magistral Small 2509 | mistral.magistral-small-2509 |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 14B 3.0 | mistral.ministral-3-14b-instruction |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 3 8B | mistral.ministral-3-8b-instruction |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 3B | mistral.ministral-3-3b-instruction |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Large 3 | mistral.mistral-large-3-675b-instruction |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Small (24.02) | mistral.mistral-small-2402-v1:0 |  us-east-1  | N/A | N/A | 
| Mistral AI | Voxtral Mini 3B 2507 | mistral.voxtral-mini-3b-2507 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Voxtral Small 24B 2507 | mistral.voxtral-small-24b-2507 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| IA Moonshot | Kimi K2 Thinking | moonshot.kimi-k2-thinking |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| IA Moonshot | Kimi K2,5 | moonshotai.kimi-k2.5 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | NVIDIA Nemotron Nano 12B v2 VL BF16 | nvidia.nemotron-nano-12b-v2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | NVIDIA Nemotron Nano 9B v2 | nvidia.nemotron-nano-9b-v2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | Nemotron Nano 3 30B | nvidia.nemotron-nano-3-30b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | GPT OSS Safeguard 120B | openai. gpt-oss-safeguard-120 b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | GPT OSS Safeguard 20B | openai. gpt-oss-safeguard-20b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | gpt-oss-120b | openai.gpt-oss-120b- 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-gov-west-1 us-west-2  | N/A | N/A | 
| OpenAI | gpt-oss-20b | openai.gpt-oss-20b-1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-gov-west-1 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 235B A2B 2507 | qwen.qwen3-235b-a22b-2507-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-2 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 32B (dense) | qwen.qwen3-32b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Instruction du codeur Qwen3 480B A35B | qwen.qwen3-code-480b-a35b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Codeur Qwen3 Next | qwen.qwen3-coder-next |  ap-southeast-2 eu-west-2 us-east-1  | N/A | N/A | 
| Qwen | Qwen3 Next 80B A3B | qwen.qwen3-next-80b-a3b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 VL 235B A2B | qwen.qwen3-vl-235b-a22b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3-Coder-30B-A3B-Instruct | qwen.qwen3-code-30b-a3b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Z.AI | GLM 4.7 | zai.glm-4.7 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Z.AI | Flash GLM 4.7 | zai.glm-4.7-flash |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 

# Conditions préalables pour l’inférence par lots
<a name="batch-inference-prereq"></a>

Pour effectuer une inférence par lots, vous devez remplir les conditions préalables suivantes :

1. Préparez votre jeu de données et chargez-le dans un compartiment Amazon S3.

1. Créez un compartiment S3 pour vos données de sortie.

1. Configurez les autorisations liées à l’inférence par lots pour les identités IAM pertinentes.

1. (Facultatif) Configurez un VPC pour protéger les données de votre S3 lors de l’inférence par lots. Vous pouvez ignorer cette étape si vous n’avez pas besoin d’utiliser un VPC.

Pour découvrir comment remplir ces conditions préalables, parcourez les rubriques suivantes :

**Topics**
+ [Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md)
+ [Autorisations requises pour l’inférence par lots](batch-inference-permissions.md)
+ [Protection des tâches d’inférence par lots à l’aide d’un VPC](batch-vpc.md)

# Mise en forme et chargement des données d’inférence par lots
<a name="batch-inference-data"></a>

Vous devez ajouter vos données d’inférence par lots à un emplacement S3 que vous choisirez ou spécifierez lors de la soumission d’un modèle de tâche d’invocation. L’emplacement S3 doit contenir les éléments suivants :
+ Au moins un fichier JSONL qui définit les entrées du modèle. Un ficher JSONL contient des lignes d’objets JSON. Votre format JSONL doit se terminer par l’extension .jsonl et être au format suivant :

  ```
  { "recordId" : "alphanumeric string", "modelInput" : {JSON body} }
  ...
  ```

  Chaque ligne contient un objet JSON avec un `recordId` champ et un `modelInput` champ. Le format de l'objet `modelInput` JSON dépend du type d'invocation du modèle que vous choisissez lorsque vous [créez la tâche d'inférence par lots](batch-inference-create.md). Si vous utilisez le `InvokeModel` type (par défaut), le format doit correspondre au `body` champ du modèle que vous utilisez dans la `InvokeModel` demande (voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md)). Si vous utilisez le `Converse` type, le format doit correspondre au corps de la requête de l'API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).
**Note**  
Si vous omettez le champ `recordId`, Amazon Bedrock l’ajoutera dans la sortie.
Il n’est pas garanti que l’ordre des enregistrements dans le fichier JSONL de sortie corresponde à l’ordre des enregistrements dans le fichier JSONL d’entrée.
Vous spécifiez le modèle que vous souhaitez utiliser lorsque vous créez la [tâche d’inférence par lots](batch-inference-create.md).
+ (Si le contenu de votre entrée contient un emplacement Amazon S3) Certains modèles vous permettent de définir le contenu de l'entrée comme un emplacement S3. Consultez [Exemple d’entrée vidéo pour Amazon Nova](#batch-inference-data-ex-s3).
**Avertissement**  
Lorsque vous utilisez S3 URIs dans vos instructions, toutes les ressources doivent se trouver dans le même compartiment et le même dossier S3. Le `InputDataConfig` paramètre doit spécifier le chemin du dossier contenant toutes les ressources liées (telles que des vidéos ou des images), et pas uniquement un `.jsonl` fichier individuel. Notez que les chemins S3 distinguent les majuscules et minuscules. Assurez-vous donc de URIs correspondre exactement à la structure de dossiers.

Assurez-vous que vos entrées sont conformes aux quotas d’inférence par lots. Vous pouvez rechercher les quotas suivants dans [Amazon Bedrock service quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) :
+ **Nombre minimum d’enregistrements par tâche d’inférence par lots** : nombre minimal d’enregistrements (objets JSON) dans les fichiers JSONL de la tâche.
+ **Enregistrements par fichier d’entrée par tâche d’inférence par lots** : nombre maximal d’enregistrements (objets JSON) dans un seul fichier JSONL de la tâche.
+ **Enregistrements par tâche d’inférence par lots** : nombre maximal d’enregistrements (objets JSON) dans les fichiers JSONL de la tâche.
+ **Taille du fichier d’entrée par inférence par lots** : taille maximale d’un seul fichier dans la tâche.
+ **Taille de la tâche d’inférence par lots** : taille cumulée maximale de tous les fichiers d’entrée.

Pour mieux comprendre comment configurer des entrées d’inférence par lots, consultez les exemples suivants :

## Exemple de saisie de texte pour Anthropic Claude 3 Haiku
<a name="batch-inference-data-ex-text"></a>

Si vous envisagez d’exécuter une inférence par lots à l’aide du format de l’[API Messages](model-parameters-anthropic-claude-messages.md) pour le modèle Anthropic Claude 3 Haiku, vous pouvez fournir un fichier JSONL contenant l’objet JSON suivant sous forme de ligne :

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
```

## Exemple d’entrée vidéo pour Amazon Nova
<a name="batch-inference-data-ex-s3"></a>

Si vous envisagez d’exécuter une inférence par lots sur les entrées vidéo à l’aide des modèles Amazon Nova Lite ou Amazon Nova Pro, vous avez la possibilité de définir la vidéo en octets ou en tant qu’emplacement S3 dans le fichier JSONL. Par exemple, vous pouvez avoir un compartiment S3 dont le chemin est `s3://batch-inference-input-bucket` et contient les fichiers suivants :

```
s3://batch-inference-input-bucket/
├── videos/
│   ├── video1.mp4
│   ├── video2.mp4
│   ├── ...
│   └── video50.mp4
└── input.jsonl
```

Voici un exemple d’enregistrement à partir du fichier `input.jsonl` :

```
{
    "recordId": "RECORD01",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..."
                    },
                    {
                        "video": {
                            "format": "mp4",
                            "source": {
                                "s3Location": {
                                    "uri": "s3://batch-inference-input-bucket/videos/video1.mp4",
                                    "bucketOwner": "111122223333"
                                }
                            }
                        }
                    }
                ]
            }
        ]
    }
}
```

Lorsque vous créez la tâche d'inférence par lots, vous devez spécifier le chemin du dossier `s3://batch-inference-input-bucket` dans vos `InputDataConfig` paramètres. L'inférence par lots traitera le `input.jsonl` fichier à cet emplacement, ainsi que toutes les ressources référencées (telles que les fichiers vidéo du `videos` sous-dossier).

Les ressources suivantes fournissent plus d’informations sur la soumission d’entrées vidéo pour l’inférence par lots :
+ Pour savoir comment valider Amazon S3 URIs dans une demande d'entrée, consultez le [blog Amazon S3 URL Parsing](https://aws.amazon.com/blogs/devops/s3-uri-parsing-is-now-available-in-aws-sdk-for-java-2-x/).
+ Pour plus d'informations sur la façon de configurer des enregistrements d'invocation pour la compréhension vidéo avec Nova, consultez les directives relatives aux [appels Amazon Nova visuels.](https://docs.aws.amazon.com/nova/latest/userguide/prompting-vision-prompting.html)

## Exemple d'entrée Converse
<a name="batch-inference-data-ex-converse"></a>

Si vous définissez le type d'appel du modèle sur `Converse` lors de la création de la tâche d'inférence par lots, le `modelInput` champ doit utiliser le format de demande de l'API Converse. L'exemple suivant montre un enregistrement JSONL pour une tâche d'inférence par lots Converse :

```
{
    "recordId": "CALL0000001",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "Summarize the following call transcript: ..."
                    }
                ]
            }
        ],
        "inferenceConfig": {
            "maxTokens": 1024
        }
    }
}
```

Pour la liste complète des champs pris en charge dans le corps de la requête Converse, voir [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) dans le guide de référence de l'API.

La rubrique suivante décrit comment configurer l’accès S3 et les autorisations d’inférence par lots pour une identité afin de pouvoir effectuer une inférence par lots.

# Autorisations requises pour l’inférence par lots
<a name="batch-inference-permissions"></a>

Pour effectuer une inférence par lots, vous devez configurer des autorisations pour les identités IAM suivantes :
+ L’identité IAM qui créera et gérera les tâches d’inférence par lots.
+ Le [rôle de service](security-iam-sr.md) d’inférence par lots qu’Amazon Bedrock endosse pour effectuer des actions en votre nom.

Pour découvrir comment configurer des autorisations pour chaque identité, consultez les rubriques suivantes :

**Topics**
+ [Autorisations requises pour qu’une identité IAM puisse soumettre et gérer des tâches d’inférence par lots](#batch-inference-permissions-user)
+ [Autorisations requises pour qu’un rôle de service puisse effectuer une inférence par lots](#batch-inference-permissions-service)

## Autorisations requises pour qu’une identité IAM puisse soumettre et gérer des tâches d’inférence par lots
<a name="batch-inference-permissions-user"></a>

Pour qu’une identité IAM puisse utiliser cette fonctionnalité, vous devez la configurer avec les autorisations nécessaires. Pour ce faire, effectuez l’une des opérations suivantes :
+ Pour permettre à une identité d'effectuer toutes les actions d'Amazon Bedrock, associez la [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)politique à l'identité. Dans ce cas, vous pouvez ignorer cette rubrique. Cette option est moins sécurisée.
+ La bonne pratique en matière de sécurité consiste à accorder uniquement les actions nécessaires à une identité. Cette rubrique décrit les autorisations dont vous avez besoin pour cette fonctionnalité.

Pour restreindre les autorisations aux actions utilisées pour l’inférence par lots, associez la politique basée sur l’identité suivante à un rôle IAM :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "BatchInference",
            "Effect": "Allow",
            "Action": [  
                "bedrock:ListFoundationModels",
                "bedrock:GetFoundationModel",
                "bedrock:ListInferenceProfiles",
                "bedrock:GetInferenceProfile",
                "bedrock:ListCustomModels",
                "bedrock:GetCustomModel",
                "bedrock:TagResource", 
                "bedrock:UntagResource", 
                "bedrock:ListTagsForResource",
                "bedrock:CreateModelInvocationJob",
                "bedrock:GetModelInvocationJob",
                "bedrock:ListModelInvocationJobs",
                "bedrock:StopModelInvocationJob"
            ],
            "Resource": "*"
        }
    ]   
}
```

------

Pour restreindre davantage les autorisations, vous pouvez omettre des actions ou spécifier des ressources et des clés de condition permettant de filtrer les autorisations. Pour plus d’informations sur les actions, les ressources et les clés de condition, consultez les rubriques suivantes dans la *Référence des autorisations de service* :
+ [Actions définies par Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) : découvrez les actions, les types de ressources auxquels vous pouvez les appliquer dans le champ `Resource` et les clés de condition qui vous permettent de filtrer les autorisations dans le champ `Condition`.
+ [Types de ressources définis par Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) : découvrez les types de ressources dans Amazon Bedrock.
+ [Clés de condition pour Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) : découvrez les clés de condition dans Amazon Bedrock.

La politique suivante est un exemple qui limite les autorisations pour l’inférence par lots afin de permettre uniquement à un utilisateur possédant l’ID de compte `123456789012` de créer des tâches d’inférence par lots dans la région `us-west-2` en utilisant le modèle Anthropic Claude 3 Haiku :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "CreateBatchInferenceJob",
            "Effect": "Allow",
            "Action": [
                "bedrock:CreateModelInvocationJob"
            ],
            "Resource": [
                "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                "arn:aws:bedrock:us-west-2:123456789012:model-invocation-job/*"
            ]
        }
    ]
}
```

------

## Autorisations requises pour qu’un rôle de service puisse effectuer une inférence par lots
<a name="batch-inference-permissions-service"></a>

L’inférence par lots est effectuée par un [rôle de service](security-iam-sr.md) qui endosse votre identité pour effectuer des actions en votre nom. Vous créez un rôle de service des manières suivantes :
+ Laissez Amazon Bedrock créer automatiquement un rôle de service avec les autorisations nécessaires pour vous en utilisant la AWS Management Console. Vous pouvez sélectionner cette option lorsque vous créez une tâche d’inférence par lots.
+ Créez un rôle de service personnalisé pour Amazon Bedrock en utilisant Gestion des identités et des accès AWS et en attachant les autorisations nécessaires. Lorsque vous soumettez la tâche d’inférence par lots, vous spécifiez ensuite ce rôle. Pour plus d’informations sur la création d’un rôle de service personnalisé pour l’inférence par lots, consultez [Création d’un rôle de service pour l’inférence par lots](batch-iam-sr.md). Pour plus d’informations sur la création de rôles de service, consultez [Création d’un rôle pour la délégation d’autorisations à un Service AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) dans le Guide de l’utilisateur IAM.

**Important**  
Si le compartiment S3 dans lequel vous avez [chargé vos données pour l'inférence par lots](batch-inference-data.md) se trouve dans un autre compartimentCompte AWS, vous devez configurer une politique de compartiment S3 pour autoriser le rôle de service à accéder aux données. Vous devez configurer manuellement cette politique même si vous utilisez la console pour créer automatiquement un rôle de service. Pour savoir comment configurer une stratégie de compartiment S3 pour les ressources Amazon Bedrock, consultez [Association d’une stratégie de compartiment à un compartiment Amazon S3 pour autoriser l’accès d’un autre compte](s3-bucket-access.md#s3-bucket-access-cross-account).
Les modèles de base d'Amazon Bedrock sont des ressources AWS gérées qui ne peuvent pas être utilisées dans le cadre des conditions de politique IAM exigeant la propriété du client. Ces modèles sont détenus et exploités par AWS des clients individuels et ne peuvent pas être détenus par des clients individuels. Toute condition de politique IAM qui vérifie les ressources appartenant au client (telles que les conditions utilisant des balises de ressource, un identifiant d'organisation ou d'autres attributs de propriété) échouera lorsqu'elle est appliquée aux modèles de base, bloquant potentiellement l'accès légitime à ces services.  
Par exemple, si votre police inclut une `aws:ResourceOrgID` condition comme celle-ci :  

  ```
  {
    "Condition": {
      "StringEqualsIgnoreCase": {
        "aws:ResourceOrgID": ["o-xxxxxxxx"]
      }
    }
  }
  ```
Votre tâche d'inférence par lots échouera avec`AccessDeniedException`. Supprimez la `aws:ResourceOrgID` condition ou créez des déclarations de politique distinctes pour les modèles de base.

# Protection des tâches d’inférence par lots à l’aide d’un VPC
<a name="batch-vpc"></a>

Lorsque vous exécutez une tâche d’inférence par lots, celle-ci accède à votre compartiment Amazon S3 pour télécharger les données d’entrée et pour écrire les données de sortie. Pour contrôler l’accès à vos données, nous vous recommandons d’utiliser un cloud privé virtuel (VPC) avec [Amazon VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html). Vous pouvez mieux protéger vos données en configurant votre VPC de manière à ce qu’elles ne soient pas disponibles sur Internet et en créant plutôt un point de terminaison d’interface VPC avec [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/what-is-privatelink.html) pour établir une connexion privée à vos données. Pour plus d'informations sur la manière dont Amazon VPC AWS PrivateLink s'intègre à Amazon Bedrock, consultez. [Protection de vos données à l’aide d’Amazon VPC et AWS PrivateLink](usingVPC.md)

Procédez comme suit pour configurer et utiliser un VPC pour les invites de saisie et les réponses du modèle de sortie pour vos tâches d’inférence par lots.

**Topics**
+ [Configuration du VPC pour protéger vos données lors de l’inférence par lots](#batch-vpc-setup)
+ [Association des autorisations VPC à un rôle d’inférence par lots](#batch-vpc-role)
+ [Ajout de la configuration VPC lors de la soumission d’une tâche d’inférence par lots](#batch-vpc-config)

## Configuration du VPC pour protéger vos données lors de l’inférence par lots
<a name="batch-vpc-setup"></a>

Pour configurer un VPC, suivez les étapes décrites dans [Configurez un VPC](usingVPC.md#create-vpc). Vous pouvez renforcer la sécurité de votre VPC en configurant un point de terminaison de VPC S3 et en utilisant des politiques IAM basées sur les ressources pour restreindre l’accès au compartiment S3 contenant vos données d’inférence par lots en suivant les étapes décrites dans [(Exemple) Restriction de l’accès à vos données Amazon S3 à l’aide d’un VPC](vpc-s3.md).

## Association des autorisations VPC à un rôle d’inférence par lots
<a name="batch-vpc-role"></a>

Une fois que vous avez terminé de configurer votre VPC, associez les autorisations suivantes à votre [rôle de service d’inférence par lots](batch-iam-sr.md) pour lui permettre d’accéder au VPC. Modifiez cette politique de manière à n’autoriser l’accès qu’aux ressources de VPC dont votre tâche a besoin. Remplacez le *subnet-ids* et *security-group-id* par les valeurs de votre VPC.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "1",
            "Effect": "Allow",
            "Action": [
                "ec2:DescribeNetworkInterfaces",
                "ec2:DescribeVpcs",
                "ec2:DescribeDhcpOptions",
                "ec2:DescribeSubnets",
                "ec2:DescribeSecurityGroups"
            ],
            "Resource": [
                "*"
            ]
        },
        {
            "Sid": "2",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateNetworkInterface"
            ],
            "Resource": [
                "arn:aws:ec2:us-east-1:123456789012:network-interface/*",
                "arn:aws:ec2:us-east-1:123456789012:subnet/${{subnet-id}}",
                "arn:aws:ec2:us-east-1:123456789012:security-group/${{security-group-id}}"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/BedrockManaged": [
                        "true"
                    ]
                },
                "ArnEquals": {
                    "aws:RequestTag/BedrockModelInvocationJobArn": [
                        "arn:aws:bedrock:us-east-1:123456789012:model-invocation-job/*"
                    ]
                }
            }
        },
        {
            "Sid": "3",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateNetworkInterfacePermission",
                "ec2:DeleteNetworkInterface",
                "ec2:DeleteNetworkInterfacePermission"
            ],
            "Resource": [
                "*"
            ],
            "Condition": {
                "StringEquals": {
                    "ec2:Subnet": [
                        "arn:aws:ec2:us-east-1:123456789012:subnet/${{subnet-id}}"
                    ]
                },
                "ArnEquals": {
                    "ec2:ResourceTag/BedrockModelInvocationJobArn": [
                        "arn:aws:bedrock:us-east-1:123456789012:model-invocation-job/*"
                    ]
                }
            }
        },
        {
            "Sid": "4",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateTags"
            ],
            "Resource": "arn:aws:ec2:us-east-1:123456789012:network-interface/*",
            "Condition": {
                "StringEquals": {
                    "ec2:CreateAction": [
                        "CreateNetworkInterface"
                    ]
                },
                "ForAllValues:StringEquals": {
                    "aws:TagKeys": [
                        "BedrockManaged",
                        "BedrockModelInvocationJobArn"
                    ]
                }
            }
        }
    ]
}
```

------

## Ajout de la configuration VPC lors de la soumission d’une tâche d’inférence par lots
<a name="batch-vpc-config"></a>

Après avoir configuré le VPC ainsi que les rôles et autorisations requis comme décrit dans les sections précédentes, vous pouvez créer une tâche de d’inférence par lots qui utilise ce VPC.

**Note**  
Actuellement, lors de la création d’une tâche d’inférence par lots, vous ne pouvez utiliser un VPC que via l’API.

Lorsque vous spécifiez les sous-réseaux VPC et les groupes de sécurité pour une tâche, Amazon Bedrock crée des *interfaces réseau élastiques* (ENIs) associées à vos groupes de sécurité dans l'un des sous-réseaux. ENIs autorisez la tâche Amazon Bedrock à se connecter aux ressources de votre VPC. Pour plus d'informations ENIs, consultez la section [Elastic Network Interfaces](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_ElasticNetworkInterfaces.html) dans le guide de l'*utilisateur Amazon VPC*. Tags Amazon Bedrock avec ENIs lesquels il crée `BedrockManaged` et `BedrockModelInvocationJobArn` étiquette.

Nous vous recommandons de choisir au moins un sous-réseau dans chaque zone de disponibilité.

Vous pouvez utiliser les groupes de sécurité pour établir des règles permettant de contrôler l’accès d’Amazon Bedrock aux ressources VPC.

Lorsque vous soumettez une [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)demande, vous pouvez inclure un `VpcConfig` paramètre de demande pour spécifier les sous-réseaux VPC et les groupes de sécurité à utiliser, comme dans l'exemple suivant.

```
"vpcConfig": { 
    "securityGroupIds": [
        "sg-0123456789abcdef0"
    ],
    "subnets": [
        "subnet-0123456789abcdef0",
        "subnet-0123456789abcdef1",
        "subnet-0123456789abcdef2"
    ]
}
```

# Création d'une tâche d'inférence par lots
<a name="batch-inference-create"></a>

Après avoir configuré un compartiment Amazon S3 avec des fichiers pour exécuter l’inférence de modèles, vous pouvez créer une tâche d’inférence par lots. Avant de commencer, vérifiez que vous avez configuré les fichiers conformément aux instructions décrites dans [Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md).

**Note**  
Pour soumettre une tâche d’inférence par lots à l’aide d’un VPC, vous devez utiliser l’API. Sélectionnez l’onglet API pour savoir comment inclure la configuration du VPC.

Pour savoir comment créer une tâche d’inférence par lots, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour créer une tâche d’inférence par lots**

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Dans le volet de navigation de gauche, sélectionnez **Inférence par lots**.

1. Dans la section **Tâches d’inférence par lots**, choisissez **Créer une tâche**.

1. Dans la section **Détails de la tâche**, attribuez un **nom** à la tâche d’inférence par lots et sélectionnez le modèle à utiliser pour la tâche d’inférence par lots en choisissant **Sélectionner un modèle**.

1. Dans la section **Type d'invocation du modèle**, choisissez le format d'API pour vos données d'entrée. Choisissez **InvokeModel**si vos données d'entrée utilisent des formats de requête spécifiques au modèle, ou choisissez **Converse** si vos données d'entrée utilisent le format de l'API Converse. La valeur par défaut est **InvokeModel**.

1. Dans la section **Données d’entrée**, choisissez **Browse S3** et sélectionnez un emplacement S3 pour votre tâche d’inférence par lots. L’inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu’il s’agisse d’un dossier S3 ou d’un seul fichier JSONL.
**Note**  
Si les données d’entrée se trouvent dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l’API pour soumettre le travail d’inférence par lots. Pour savoir comment procéder, sélectionnez l’onglet API ci-dessus.

1. Dans la section **Données de sortie**, choisissez **Browse S3** et sélectionnez un emplacement S3 pour stocker les fichiers de sortie de votre tâche d'inférence par lots. Par défaut, les données de sortie seront cryptées par un Clé gérée par AWS. Pour choisir une clé KMS personnalisée, sélectionnez **Personnaliser les paramètres de chiffrement (avancé)**, puis choisissez une clé. Pour plus d’informations sur le chiffrement des ressources Amazon Bedrock et la configuration d’une clé KMS personnalisée, consultez [Chiffrement des données](data-encryption.md).
**Note**  
Si vous prévoyez d’écrire les données de sortie dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l’API pour soumettre le travail d’inférence par lots. Pour savoir comment procéder, sélectionnez l’onglet API ci-dessus.

1. Dans la section **Accès au service**, sélectionnez l’une des options suivantes :
   + **Utiliser une fonction du service existante** : sélectionnez une fonction du service dans la liste déroulante. Pour plus d’informations sur la configuration d’un rôle personnalisé avec les autorisations appropriées, consultez [Autorisations requises pour l’inférence par lots](batch-inference-permissions.md).
   + **Créer et utiliser une nouvelle fonction du service** : entrez un nom pour la fonction du service.

1. (Facultatif) Pour associer des balises à la tâche d’inférence par lots, développez la section **Balises** et ajoutez une clé et une valeur facultative pour chaque balise. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md).

1. Choisissez **Create batch inference job (Créer une tâche d'inférence par lots)**.

------
#### [ API ]

Pour créer une tâche d'inférence par lots, envoyez une [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)demande avec un point de terminaison du [plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Les champs suivants sont obligatoires :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| jobName | Pour spécifier un nom pour la tâche. | 
| roleArn | Pour spécifier l’Amazon Resource Name (ARN) du rôle de service avec les autorisations nécessaires à la création et à la gestion de la tâche. Pour de plus amples informations, veuillez consulter [Création d’un rôle de service pour l’inférence par lots](batch-iam-sr.md). | 
| modelId | Pour spécifier l’ID ou l’ARN du modèle à utiliser dans l’inférence. | 
| inputDataConfig | Pour spécifier l’emplacement S3 contenant les données d’entrée. L’inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu’il s’agisse d’un dossier S3 ou d’un seul fichier JSONL. Pour de plus amples informations, veuillez consulter [Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md). | 
| outputDataConfig | Pour spécifier l’emplacement S3 dans lequel écrire les réponses du modèle. | 

Les champs suivants sont facultatifs :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| modelInvocationType | Pour spécifier le format d'API des données d'entrée. Définissez sur Converse pour utiliser le format de l'API Converse ou InvokeModel (par défaut) pour utiliser des formats de requête spécifiques au modèle. Pour plus d'informations sur le format de requête Converse, consultez [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). | 
| timeoutDurationInHeures | Pour spécifier la durée en heures au terme de laquelle la tâche expirera. | 
| tags | Pour spécifier les balises à associer à la tâche. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md). | 
| vpcConfig | Pour spécifier la configuration VPC à utiliser pour protéger vos données pendant la tâche. Pour de plus amples informations, veuillez consulter [Protection des tâches d’inférence par lots à l’aide d’un VPC](batch-vpc.md). | 
| clientRequestToken | Pour garantir que la demande d’API n’est exécutée qu’une seule fois. Pour plus d’informations, consultez [Garantie de l’idempotence](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

La réponse renvoie un `jobArn` que vous pourrez utiliser pour faire référence à la tâche lors de l’exécution d’autres appels d’API liés à l’inférence par lots.

------

# Surveillance des tâches d’inférence par lots
<a name="batch-inference-monitor"></a>

Outre les configurations que vous définissez pour une tâche d’inférence par lots, vous pouvez également suivre sa progression en consultant son statut. Pour plus d'informations sur les statuts possibles d'une tâche, consultez le `status` champ dans [ModelInvocationJobSummary](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ModelInvocationJobSummary.html).

Vous pouvez également suivre l’état d’une tâche en comparant le nombre total d’enregistrements et le nombre d’enregistrements déjà traités. Ces numéros se trouvent dans le fichier `manifest.json.out` du compartiment Amazon S3 contenant les fichiers de sortie. Pour de plus amples informations, veuillez consulter [Affichage des résultats d’une tâche d’inférence par lots](batch-inference-results.md). Pour savoir comment télécharger un objet S3, consultez [Téléchargement d’objets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html).

**Astuce**  
Au lieu de demander le statut d'une tâche, vous pouvez utiliser Amazon EventBridge pour recevoir des notifications automatiques lorsqu'une tâche d'inférence par lots se termine ou change d'état. Pour de plus amples informations, veuillez consulter [Surveillez l'évolution de l'état des tâches sur Amazon Bedrock à l'aide d'Amazon EventBridgeSurveiller les modifications des événements](monitoring-eventbridge.md).

Pour découvrir comment afficher des informations sur les tâches d’inférence par lots, cliquez sur l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour afficher des informations sur les tâches d’inférence par lots**

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Dans le volet de navigation de gauche, sélectionnez **Inférence par lots**.

1. Dans la section **Tâches d’inférence par lots**, choisissez une tâche.

1. Sur la page des détails de la tâche, vous pouvez consulter les informations relatives à la configuration de la tâche et suivre sa progression en consultant son **statut**.

------
#### [ API ]

Pour obtenir des informations sur une tâche d'inférence par lots, envoyez une [GetModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetModelInvocationJob.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et indiquez l'ID ou l'ARN de la tâche sur le `jobIdentifier` terrain.

Pour répertorier les informations relatives à plusieurs tâches d'inférence par lots, envoyez une [ListModelInvocationJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListModelInvocationJobs.html)demande avec un point de terminaison du [plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Vous pouvez préciser les paramètres facultatifs suivants :

La réponse pour `GetModelInvocationJob` et `ListModelInvocationJobs` inclut un `modelInvocationType` champ qui indique si la tâche utilise le format `InvokeModel` ou `Converse` l'API.


****  

| Champ | Description abrégée | 
| --- | --- | 
| maxResults | Nombre maximum de résultats à renvoyer en réponse. | 
| nextToken | Si le nombre de résultats est supérieur à ce que vous avez spécifié dans le champ maxResults, la réponse renvoie une valeur nextToken. Pour voir le prochain lot de résultats, envoyez la valeur nextToken dans une autre demande. | 

Pour répertorier toutes les balises d'une tâche, envoyez une [ListTagsForResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListTagsForResource.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et incluez le nom de ressource Amazon (ARN) de la tâche.

------

# Arrêt d’une tâche d’inférence par lots
<a name="batch-inference-stop"></a>

Pour savoir comment arrêter une tâche d’inférence par lots en cours, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour arrêter une tâche d’inférence par lots**

1. Connectez-vous à la AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ensuite, ouvrez la console Amazon Bedrock à l’adresse [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Dans le volet de navigation de gauche, sélectionnez **Inférence par lots**.

1. Sélectionnez une tâche pour accéder à la page des détails de la tâche ou sélectionnez le bouton d’option à côté d’une tâche.

1. Choisissez **Arrêter la tâche**.

1. Examinez le message, puis sélectionnez **Arrêter la tâche** pour confirmer.
**Note**  
Des jetons qui ont déjà été traités vous sont facturés.

------
#### [ API ]

Pour arrêter une tâche d’inférence par lots, envoyez une demande [StopModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_StopModelInvocationJob.html) avec un [point de terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et indiquez l’ID ou l’ARN de la tâche dans le champ `jobIdentifier`.

Si la tâche a été arrêtée avec succès, vous recevez une réponse HTTP 200.

------

# Affichage des résultats d’une tâche d’inférence par lots
<a name="batch-inference-results"></a>

Lorsque la tâche d’inférence par lots est `Completed`, vous pouvez extraire les résultats de la tâche d’inférence par lots à partir des fichiers du compartiment Amazon S3 que vous avez spécifié lors de la création de la tâche. Pour savoir comment télécharger un objet S3, consultez [Téléchargement d’objets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html). Le compartiment S3 contient les fichiers suivants :

1. Amazon Bedrock génère un fichier JSONL de sortie pour chaque fichier JSONL d’entrée. Les fichiers de sortie contiennent les sorties du modèle pour chaque entrée au format suivant. Un objet `error` remplace le champ `modelOutput` sur toute ligne comportant une erreur d’inférence. Le format de l'objet `modelOutput` JSON dépend du type d'appel du modèle. Pour les `InvokeModel` tâches, le format correspond au `body` champ de la `InvokeModel` réponse (voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md)). Pour les `Converse` jobs, le format correspond au corps de réponse de l'API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).

   ```
   { "recordId" : "string", "modelInput": {JSON body}, "modelOutput": {JSON body} }
   ```

   L’exemple suivant montre un fichier de sortie possible.

   ```
   { "recordId" : "3223593EFGH", "modelInput" : {"inputText": "Roses are red, violets are"}, "modelOutput" : {"inputTextTokenCount": 8, "results": [{"tokenCount": 3, "outputText": "blue\n", "completionReason": "FINISH"}]}}
   { "recordId" : "1223213ABCD", "modelInput" : {"inputText": "Hello world"}, "error" : {"errorCode" : 400, "errorMessage" : "bad request" }}
   ```

1. Fichier `manifest.json.out` avec un résumé de la tâche d’inférence par lots.

   ```
   {
       "totalRecordCount" : number, 
       "processedRecordCount" : number,
       "successRecordCount": number,
       "errorRecordCount": number,
       "inputTokenCount": number,
       "outputTokenCount" : number
   }
   ```

   Les champs sont décrits ci-dessous :
   + totalRecordCount — Le nombre total d'enregistrements soumis à la tâche d'inférence par lots.
   + processedRecordCount — Le nombre d'enregistrements traités dans le cadre de la tâche d'inférence par lots.
   + successRecordCount — Le nombre d'enregistrements traités avec succès par la tâche d'inférence par lots.
   + errorRecordCount — Le nombre d'enregistrements de la tâche d'inférence par lots qui ont provoqué des erreurs.
   + inputTokenCount — Le nombre total de jetons d'entrée soumis à la tâche d'inférence par lots.
   + outputTokenCount — Le nombre total de jetons de sortie générés par la tâche d'inférence par lots.

# Exemple de code pour l’inférence par lots
<a name="batch-inference-example"></a>

L’exemple de code présenté dans ce chapitre montre comment créer une tâche d’inférence par lots, afficher les informations la concernant et l’arrêter. Cet exemple utilise le format `InvokeModel` API. Pour plus d'informations sur l'utilisation du format `Converse` API, consultez[Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md).

Sélectionnez une langue pour voir un exemple de code correspondant :

------
#### [ Python ]

Créez un fichier JSONL nommé *abc.jsonl* et incluez un objet JSON pour chaque enregistrement contenant au moins le nombre minimum d'enregistrements (voir le **nombre minimum d'enregistrements par tâche d'inférence par lots pour**). *\$1Model\$1* [Quotas pour Amazon Bedrock](quotas.md) Dans cet exemple, vous allez utiliser le modèle Anthropic Claude 3 Haiku. L’exemple suivant présente le premier fichier JSON d’entrée dans le fichier :

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
... 
# Add records until you hit the minimum
```

Créez un compartiment S3 appelé *amzn-s3-demo-bucket-input* et chargez-y le fichier. Créez ensuite un compartiment S3 appelé *amzn-s3-demo-bucket-output* pour y écrire vos fichiers de sortie. Exécutez l'extrait de code suivant pour soumettre une tâche et obtenir *jobArn* la réponse :

```
import boto3

bedrock = boto3.client(service_name="bedrock")

inputDataConfig=({
    "s3InputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl"
    }
})

outputDataConfig=({
    "s3OutputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-output/"
    }
})

response=bedrock.create_model_invocation_job(
    roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole",
    modelId="anthropic.claude-3-haiku-20240307-v1:0",
    jobName="my-batch-job",
    inputDataConfig=inputDataConfig,
    outputDataConfig=outputDataConfig
)

jobArn = response.get('jobArn')
```

Renvoyez le `status` de la tâche.

```
bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']
```

Répertoriez les tâches d'inférence par lots qui*Failed*.

```
bedrock.list_model_invocation_jobs(
    maxResults=10,
    statusEquals="Failed",
    sortOrder="Descending"
)
```

Arrêtez la tâche que vous avez commencée.

```
bedrock.stop_model_invocation_job(jobIdentifier=jobArn)
```

------

# Soumission d’un lot d’invites à l’aide de l’API OpenAI Batch
<a name="inference-openai-batch"></a>

Vous pouvez exécuter une tâche d’inférence par lots utilisant l’[API par lots Create OpenAI](https://platform.openai.com/docs/api-reference/batch) avec des modèles OpenAI Amazon Bedrock.

Vous pouvez appeler l’API OpenAI de création de lot des manières suivantes :
+ Effectuer une requête HTTP avec un point de terminaison d’exécution d’Amazon Bedrock.
+ Utiliser une demande de kit SDK OpenAI avec un point de terminaison d’exécution d’Amazon Bedrock.

Choisissez une rubrique pour en savoir plus :

**Topics**
+ [Modèles et régions pris en charge pour l’API de lot OpenAI](#inference-openai-batch-supported)
+ [Conditions préalables à l’utilisation de l’API de lot OpenAI](#inference-openai-batch-prereq)
+ [Création d’une tâche par lot OpenAI](#inference-openai-batch-create)
+ [Récupération d’une tâche par lot OpenAI](#inference-openai-batch-retrieve)
+ [Affichage des tâches par lots OpenAI](#inference-openai-batch-list)
+ [Annulation d’une tâche par lot OpenAI](#inference-openai-batch-cancel)

## Modèles et régions pris en charge pour l’API de lot OpenAI
<a name="inference-openai-batch-supported"></a>

Vous pouvez utiliser l'API OpenAI Create batch avec tous les OpenAI modèles pris en charge dans Amazon Bedrock et dans les AWS régions qui prennent en charge ces modèles. Pour plus d’informations sur les modèles et régions pris en charge, consultez [Modèles de fondation pris en charge dans Amazon Bedrock](models-supported.md).

## Conditions préalables à l’utilisation de l’API de lot OpenAI
<a name="inference-openai-batch-prereq"></a>

Pour connaître les conditions préalables à l’utilisation des opérations d’API par lots OpenAI, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ OpenAI SDK ]
+ **Authentification** : le kit OpenAI SDK prend uniquement en charge l’authentification avec une clé d’API Amazon Bedrock. Générez une clé d’API Amazon Bedrock pour authentifier votre demande. Pour en savoir plus sur les clés d'API Amazon Bedrock et sur la façon de les générer, consultez la section Clés d'API du chapitre Build.
+ Point de **terminaison** : recherchez le point de terminaison correspondant à la AWS région à utiliser dans les [points de terminaison et les quotas Amazon Bedrock Runtime](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt). Si vous utilisez un AWS SDK, il se peut que vous deviez uniquement spécifier le code de région et non le point de terminaison complet lors de la configuration du client.
+ **Accès au modèle** : demandez l’accès à un modèle Amazon Bedrock compatible avec cette fonctionnalité. Pour de plus amples informations, veuillez consulter [Gérez l'accès aux modèles à l'aide du SDK et de la CLI](model-access.md#model-access-modify).
+ **Installer un kit SDK OpenAI** : pour plus d’informations, consultez [Libraries](https://platform.openai.com/docs/libraries) dans la documentation OpenAI.
+ **Fichier JSONL par lots chargé sur S3** : suivez les étapes décrites dans [Prepare your batch file](https://platform.openai.com/docs/guides/batch#1-prepare-your-batch-file) dans la documentation OpenAI pour préparer votre fichier par lots au format correct. Chargez-le dans un compartiment Amazon S3.
+ **Autorisations IAM** : assurez-vous de disposer des identités IAM suivantes avec les autorisations appropriées :
  + Une identité IAM avec laquelle vous vous authentifiez peut effectuer des opérations d’API liées à l’inférence par lots. Pour de plus amples informations, veuillez consulter [Autorisations requises pour qu’une identité IAM puisse soumettre et gérer des tâches d’inférence par lots](batch-inference-permissions.md).
  + Le rôle de service d’inférence par lots que vous utilisez peut assumer votre identité, invoquer le modèle OpenAI que vous utilisez et avoir accès à votre fichier JSONL par lots dans S3. Pour de plus amples informations, veuillez consulter [Rôles du service](security-iam-sr.md).

------
#### [ HTTP request ]
+ **Authentification** — Vous pouvez vous authentifier avec vos AWS informations d'identification ou avec une clé d'API Amazon Bedrock.

  Configurez vos AWS informations d'identification ou générez une clé d'API Amazon Bedrock pour authentifier votre demande.
  + Pour en savoir plus sur la configuration de vos AWS informations d'identification, consultez la section [Accès par programmation avec informations d'identification AWS de sécurité](https://docs.aws.amazon.com/IAM/latest/UserGuide/security-creds-programmatic-access.html).
  + Pour en savoir plus sur les clés d'API Amazon Bedrock et sur la façon de les générer, consultez la section Clés d'API du chapitre Build.
+ Point de **terminaison** : recherchez le point de terminaison correspondant à la AWS région à utiliser dans les [points de terminaison et les quotas Amazon Bedrock Runtime](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt). Si vous utilisez un AWS SDK, il se peut que vous deviez uniquement spécifier le code de région et non le point de terminaison complet lors de la configuration du client.
+ **Accès au modèle** : demandez l’accès à un modèle Amazon Bedrock compatible avec cette fonctionnalité. Pour de plus amples informations, veuillez consulter [Gérez l'accès aux modèles à l'aide du SDK et de la CLI](model-access.md#model-access-modify).
+ **Fichier JSONL par lots chargé sur S3** : suivez les étapes décrites dans [Prepare your batch file](https://platform.openai.com/docs/guides/batch#1-prepare-your-batch-file) dans la documentation OpenAI pour préparer votre fichier par lots au format correct. Chargez-le dans un compartiment Amazon S3.
+ **Autorisations IAM** : assurez-vous de disposer des identités IAM suivantes avec les autorisations appropriées :
  + Une identité IAM avec laquelle vous vous authentifiez peut effectuer des opérations d’API liées à l’inférence par lots. Pour de plus amples informations, veuillez consulter [Autorisations requises pour qu’une identité IAM puisse soumettre et gérer des tâches d’inférence par lots](batch-inference-permissions.md).
  + Le rôle de service d’inférence par lots que vous utilisez peut assumer votre identité, invoquer le modèle OpenAI que vous utilisez et avoir accès à votre fichier JSONL par lots dans S3. Pour de plus amples informations, veuillez consulter [Rôles du service](security-iam-sr.md).

------

## Création d’une tâche par lot OpenAI
<a name="inference-openai-batch-create"></a>

Pour plus de détails sur l’API OpenAI de création de lot, consultez les ressources suivantes dans la documentation OpenAI :
+ [Créer un lot](https://platform.openai.com/docs/api-reference/batch/create) : détaille à la fois la demande et la réponse.
+ [L’objet de sortie de la demande](https://platform.openai.com/docs/api-reference/batch/request-output) : détaille les champs de la sortie générée par la tâche par lot. Consultez cette documentation lorsque vous interprétez les résultats dans votre compartiment S3.

**Formulation de la demande**  
Lorsque vous formulez la demande d’inférence par lots, notez les champs et valeurs spécifiques à Amazon Bedrock suivants :

**En-têtes de demandes**
+ X-Amzn-Bedrock-RoleArn (obligatoire) — Le nom de ressource Amazon (ARN) du rôle de service d'inférence par lots. Pour de plus amples informations, consultez [Création d’un rôle de service pour l’inférence par lots](batch-iam-sr.md).
+ X-Amzn-Bedrock-ModelId (obligatoire) — L'ID du modèle de base à utiliser pour l'inférence. Pour de plus amples informations, veuillez consulter [Modèles de fondation pris en charge dans Amazon Bedrock](models-supported.md).
+ X-Amzn-Bedrock-OutputEncryptionKeyId (facultatif) — L'ID d'une clé KMS que vous souhaitez utiliser pour chiffrer les fichiers S3 de sortie. Pour plus d'informations, consultez la section [Spécification du chiffrement côté serveur avec AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/specifying-kms-encryption.html)).
+ X-Amzn-Bedrock-Tags (facultatif) — Un dictionnaire de clés et de valeurs qui indique les balises à associer à la sortie. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md).

**Paramètres du corps de la demande :**
+ endpoint : doit être `v1/chat/completions`.
+ input\$1file\$1id : spécifiez l’URI S3 de votre fichier JSONL par lot.

**Recherche des résultats générés**  
La réponse de création inclut un ID de lot. Les résultats et la journalisation des erreurs de la tâche d’inférence par lots sont écrits dans le dossier S3 contenant le fichier d’entrée. Les résultats seront placés dans un dossier portant le même nom que l’ID de lot, comme dans la structure de dossiers suivante :

```
---- {batch_input_folder}
        |---- {batch_input}.jsonl
        |---- {batch_id}
	           |---- {batch_input}.jsonl.out
	           |---- {batch_input}.jsonl.err
```

Pour voir des exemples d’utilisation de l’API OpenAI de création de lot avec différentes méthodes, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ OpenAI SDK (Python) ]

Pour créer une tâche par lot à l’aide du kit SDK OpenAI, procédez comme suit :

1. Importez le kit OpenAI SDK et configurez le client avec les champs suivants :
   + `base_url` : préfixez le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1`, comme dans le format suivant :

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key` : spécifiez une clé d’API Amazon Bedrock.
   + `default_headers` : si vous devez inclure des en-têtes, vous pouvez les inclure sous forme de paires clé-valeur dans cet objet. Vous pouvez également spécifier des en-têtes dans `extra_headers` lorsque vous effectuez un appel d’API spécifique.

1. Utilisez la méthode [batches.create ()](https://platform.openai.com/docs/api-reference/batch/create) avec le client.

Avant d’exécuter l’exemple suivant, remplacez les espaces réservés dans les champs suivants :
+ api\$1key — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.
+ X-Amzn-BedrockRoleArn — *arn:aws:iam::123456789012:role/BatchServiceRole* Remplacez-le par le rôle de service d'inférence par lots que vous avez configuré.
+ input\$1file\$1id — Remplacez par *s3://amzn-s3-demo-bucket/openai-input.jsonl* l'URI S3 réel vers lequel vous avez chargé votre fichier JSONL par lots.

L’exemple appelle l’API OpenAI de création de tâche par lot dans la région `us-west-2` et inclut un seul élément de métadonnée.

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK", # Replace with actual API key
    default_headers={
        "X-Amzn-Bedrock-RoleArn": "arn:aws:iam::123456789012:role/BatchServiceRole" # Replace with actual service role ARN
    }
)

job = client.batches.create(
    input_file_id="s3://amzn-s3-demo-bucket/openai-input.jsonl", # Replace with actual S3 URI
    endpoint="/v1/chat/completions",
    completion_window="24h",
    metadata={
        "description": "test input"
    },
    extra_headers={
        "X-Amzn-Bedrock-ModelId": "openai.gpt-oss-20b-1:0",
    }
)
print(job)
```

------
#### [ HTTP request ]

Pour terminer une discussion par une requête HTTP directe, procédez comme suit :

1. Utilisez la méthode POST et spécifiez l’URL en préfixant le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1/batches`, comme dans le format suivant :

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches
   ```

1. Spécifiez vos AWS informations d'identification ou une clé d'API Amazon Bedrock dans l'`Authorization`en-tête.

Avant d’exécuter l’exemple suivant, remplacez d’abord les espaces réservés dans les champs suivants :
+ Autorisation — *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* Remplacez-la par votre clé d'API réelle.
+ X-Amzn-BedrockRoleArn — *arn:aws:iam::123456789012:role/BatchServiceRole* Remplacez-le par le rôle de service d'inférence par lots que vous avez configuré.
+ input\$1file\$1id — Remplacez par *s3://amzn-s3-demo-bucket/openai-input.jsonl* l'URI S3 réel vers lequel vous avez chargé votre fichier JSONL par lots.

L’exemple appelle l’API Create chat completion dans la région `us-west-2` et inclut un seul élément de métadonnée.

```
curl -X POST 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK' \  
    -H 'Content-Type: application/json' \
    -H 'X-Amzn-Bedrock-ModelId: openai.gpt-oss-20b-1:0' \
    -H 'X-Amzn-Bedrock-RoleArn: arn:aws:iam::123456789012:role/BatchServiceRole' \  
    -d '{    
    "input_file_id": "s3://amzn-s3-demo-bucket/openai-input.jsonl",    
    "endpoint": "/v1/chat/completions",    
    "completion_window": "24h",
    "metadata": {"description": "test input"}  
}'
```

------

## Récupération d’une tâche par lot OpenAI
<a name="inference-openai-batch-retrieve"></a>

Pour plus de détails sur la demande et la réponse de l’API OpenAI de récupération de lot, reportez-vous à [Retrieve batch](https://platform.openai.com/docs/api-reference/batch/retrieve).

Lorsque vous faites la demande, vous spécifiez l’ID du traitement par lots pour lequel vous souhaitez obtenir des informations. La réponse renvoie des informations sur un traitement par lots, notamment les noms des fichiers de sortie et d’erreur que vous pouvez rechercher dans vos compartiments S3.

Pour voir des exemples d’utilisation de l’API OpenAI de récupération de lot avec différentes méthodes, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ OpenAI SDK (Python) ]

Pour récupérer une tâche par lot à l’aide du kit SDK OpenAI, procédez comme suit :

1. Importez le kit OpenAI SDK et configurez le client avec les champs suivants :
   + `base_url` : préfixez le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1`, comme dans le format suivant :

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key` : spécifiez une clé d’API Amazon Bedrock.
   + `default_headers` : si vous devez inclure des en-têtes, vous pouvez les inclure sous forme de paires clé-valeur dans cet objet. Vous pouvez également spécifier des en-têtes dans `extra_headers` lorsque vous effectuez un appel d’API spécifique.

1. Utilisez la méthode [batches.retrieve ()](https://platform.openai.com/docs/api-reference/batch/create) avec le client et spécifiez l’ID du lot pour lequel vous souhaitez extraire les informations.

Avant d’exécuter l’exemple suivant, remplacez les espaces réservés dans les champs suivants :
+ api\$1key — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.
+ batch\$1id — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.

L'exemple appelle l'API OpenAI Retrieve batch job pour un batch dont l'ID est*batch\$1abc123*. `us-west-2`

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.retrieve(batch_id="batch_abc123") # Replace with actual ID

print(job)
```

------
#### [ HTTP request ]

Pour récupérer une tâche par lot à l’aide d’une demande HTTP directe, procédez comme suit :

1. Utilisez la méthode GET et spécifiez l’URL en préfixant le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1/batches/${batch_id}`, comme dans le format suivant :

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches/batch_abc123
   ```

1. Spécifiez vos AWS informations d'identification ou une clé d'API Amazon Bedrock dans l'`Authorization`en-tête.

Avant d’exécuter l’exemple suivant, remplacez d’abord les espaces réservés dans les champs suivants :
+ Autorisation — *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* Remplacez-la par votre clé d'API réelle.
+ batch\$1abc123 : dans le chemin, remplacez cette valeur par l’ID réel de votre tâche par lot.

L'exemple suivant appelle l'API OpenAI Retrieve batch pour une tâche par lots dont l'ID est*batch\$1abc123*. `us-west-2`

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches/batch_abc123' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK'
```

------

## Affichage des tâches par lots OpenAI
<a name="inference-openai-batch-list"></a>

Pour plus de détails sur la demande et la réponse de l’API OpenAI d’affichage de la liste des lots, consultez [List batch](https://platform.openai.com/docs/api-reference/batch/list). La réponse renvoie un ensemble d’informations sur vos tâches par lot.

Lorsque vous faites la demande, vous pouvez inclure des paramètres de requête pour filtrer les résultats. La réponse renvoie des informations sur un traitement par lots, notamment les noms des fichiers de sortie et d’erreur que vous pouvez rechercher dans vos compartiments S3.

Pour voir des exemples d’utilisation de l’API OpenAI d’affichage de la liste des lots avec différentes méthodes, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ OpenAI SDK (Python) ]

Pour afficher la liste des tâches par lot à l’aide du kit SDK OpenAI, procédez comme suit :

1. Importez le kit OpenAI SDK et configurez le client avec les champs suivants :
   + `base_url` : préfixez le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1`, comme dans le format suivant :

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key` : spécifiez une clé d’API Amazon Bedrock.
   + `default_headers` : si vous devez inclure des en-têtes, vous pouvez les inclure sous forme de paires clé-valeur dans cet objet. Vous pouvez également spécifier des en-têtes dans `extra_headers` lorsque vous effectuez un appel d’API spécifique.

1. Utilisez la méthode [batches.list ()](https://platform.openai.com/docs/api-reference/batch/list) avec le client. Vous pouvez ajouter les paramètres facultatifs suivants :

Avant d’exécuter l’exemple suivant, remplacez les espaces réservés dans les champs suivants :
+ api\$1key — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.

L’exemple appelle l’API OpenAI d’affichage de la liste des tâches par lot dans la région `us-west-2` et spécifie une limite de 2 résultats à renvoyer.

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.list(limit=2)

print(job)
```

------
#### [ HTTP request ]

Pour afficher la liste des tâches par lot à l’aide d’une demande HTTP directe, procédez comme suit :

1. Utilisez la méthode GET et spécifiez l’URL en préfixant le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1/batches`, comme dans le format suivant :

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches
   ```

   Vous pouvez ajouter les paramètres de requête facultatifs suivants :

1. Spécifiez vos AWS informations d'identification ou une clé d'API Amazon Bedrock dans l'`Authorization`en-tête.

Avant d’exécuter l’exemple suivant, remplacez d’abord les espaces réservés dans les champs suivants :
+ Autorisation — *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* Remplacez-la par votre clé d'API réelle.

L’exemple appelle l’API OpenAI d’affichage de la liste des lots dans la région `us-west-2` et spécifie une limite de 2 résultats à renvoyer.

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches?limit=2' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK' \
```

------

## Annulation d’une tâche par lot OpenAI
<a name="inference-openai-batch-cancel"></a>

Pour plus de détails sur la demande et la réponse de l’API OpenAI d’annulation de lot, consultez [Cancel batch](https://platform.openai.com/docs/api-reference/batch/cancel). La réponse renvoie des informations sur la tâche par lot annulée.

Lorsque vous effectuez la demande, vous indiquez l’ID de la tâche par lot que vous souhaitez annuler.

Pour voir des exemples d’utilisation de l’API OpenAI d’annulation de lot avec différentes méthodes, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ OpenAI SDK (Python) ]

Pour annuler une tâche par lot à l’aide du kit SDK OpenAI, procédez comme suit :

1. Importez le kit OpenAI SDK et configurez le client avec les champs suivants :
   + `base_url` : préfixez le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1`, comme dans le format suivant :

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key` : spécifiez une clé d’API Amazon Bedrock.
   + `default_headers` : si vous devez inclure des en-têtes, vous pouvez les inclure sous forme de paires clé-valeur dans cet objet. Vous pouvez également spécifier des en-têtes dans `extra_headers` lorsque vous effectuez un appel d’API spécifique.

1. Utilisez la méthode [batches.cancel()](https://platform.openai.com/docs/api-reference/batch/cancel) avec le client et spécifiez l’ID du lot pour lequel vous souhaitez récupérer les informations.

Avant d’exécuter l’exemple suivant, remplacez les espaces réservés dans les champs suivants :
+ api\$1key — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.
+ batch\$1id — Remplacez par votre clé *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* d'API réelle.

L'exemple appelle l'API OpenAI Cancel batch job `us-west-2` sur un batch dont l'ID est*batch\$1abc123*.

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.cancel(batch_id="batch_abc123") # Replace with actual ID

print(job)
```

------
#### [ HTTP request ]

Pour annuler une tâche par lot à l’aide d’une demande HTTP directe, procédez comme suit :

1. Utilisez la méthode POST et spécifiez l’URL en préfixant le point de terminaison d’exécution d’Amazon Bedrock avec `/openai/v1/batches/${batch_id}/cancel`, comme dans le format suivant :

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches/batch_abc123/cancel
   ```

1. Spécifiez vos AWS informations d'identification ou une clé d'API Amazon Bedrock dans l'`Authorization`en-tête.

Avant d’exécuter l’exemple suivant, remplacez d’abord les espaces réservés dans les champs suivants :
+ Autorisation — *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* Remplacez-la par votre clé d'API réelle.
+ batch\$1abc123 : dans le chemin, remplacez cette valeur par l’ID réel de votre tâche par lot.

L'exemple suivant appelle l'API OpenAI Cancel batch pour une tâche par lots dont l'ID est*batch\$1abc123*. `us-west-2`

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches/batch_abc123/cancel' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK'
```

------

# Augmentez le débit grâce à l’inférence entre régions
<a name="cross-region-inference"></a>

Avec l’inférence entre régions, vous pouvez choisir soit un profil d’inférence interrégional lié à une zone géographique spécifique (comme les États-Unis ou l’UE), soit un profil d’inférence global. Lorsque vous choisissez un profil d'inférence lié à une zone géographique spécifique, Amazon Bedrock sélectionne automatiquement le commercial optimal au Région AWS sein de cette zone géographique pour traiter votre demande d'inférence. Grâce aux profils d’inférence globaux, Amazon Bedrock sélectionne automatiquement la Région AWS commerciale optimale pour traiter la demande, ce qui optimise les ressources disponibles et augmente le débit du modèle.

Les deux types d'inférence interrégionale fonctionnent grâce à des [profils d'inférence](inference-profiles.md), qui définissent un modèle de base (FM) et le modèle Régions AWS vers lequel les demandes peuvent être acheminées. Lorsque vous exécutez l’inférence de modèles en mode à la demande, vos demandes peuvent être limitées par des quotas de service ou pendant les périodes de pointe d’utilisation. L'inférence entre régions vous permet de gérer de manière fluide les pics de trafic imprévus en utilisant le calcul entre différentes régions. Régions AWS

Vous pouvez également augmenter le débit d’un modèle en achetant du [débit provisionné](prov-throughput.md). Les profils d’inférence ne prennent actuellement pas en charge le débit provisionné.

Pour voir les régions et les modèles avec lesquels vous pouvez utiliser des profils d’inférence pour exécuter une inférence entre régions, consultez [Régions et modèles pris en charge pour les profils d'inférence](inference-profiles-support.md).

**Topics**
+ [Choisir entre une inférence géographique et une inférence interrégionale globale](#cross-region-inference-comparison)
+ [Considérations d’ordre général](#cross-region-inference-general-considerations)
+ [Inférence géographique interrégionale](geographic-cross-region-inference.md)
+ [Inférence interrégionale globale](global-cross-region-inference.md)

## Choisir entre une inférence géographique et une inférence interrégionale globale
<a name="cross-region-inference-comparison"></a>

Amazon Bedrock propose deux types de profils d'inférence interrégionaux, chacun étant conçu pour différents cas d'utilisation et exigences de conformité :


| Fonctionnalité | Inférence géographique interrégionale | Inférence interrégionale globale | Recommendation | 
| --- | --- | --- | --- | 
| Résidence des données | À l'intérieur des limites géographiques (États-Unis, UE, APAC, etc.) | Toute région AWS commerciale prise en charge dans le monde | Choisissez Geographic pour les exigences de conformité | 
| Débit | Supérieur à celui d'une seule région | Le plus haut disponible | Choisissez Global pour des performances optimales | 
| Cost | Tarification standard | Environ 10 % d'économies | Choisissez Global pour optimiser les coûts | 
| Exigences relatives au SCP | Autoriser toutes les régions de destination dans le profil | Autoriser "aws:RequestedRegion": "unspecified" | Configurez en fonction des politiques de votre organisation | 
| Le mieux adapté pour | Organisations soumises à des réglementations relatives à la résidence des données | Organisations priorisant les coûts et les performances | Évaluez vos besoins en matière de conformité et de performance | 

Choisissez l'inférence géographique interrégionale lorsque vous avez des exigences en matière de résidence des données et que vous devez vous assurer que le traitement des données reste dans des limites géographiques spécifiques. Optez pour l'inférence interrégionale globale lorsque vous souhaitez un débit maximal et des économies de coûts sans restrictions géographiques.

## Considérations d’ordre général
<a name="cross-region-inference-general-considerations"></a>

Notez les informations suivantes concernant l’inférence interrégionale :
+ L’inférence interrégionale n’entraîne aucun coût d’acheminement supplémentaire. Le prix est calculé en fonction de la région à partir de laquelle vous appelez un profil d’inférence. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ L'inférence entre régions peut acheminer les demandes vers celles Régions AWS qui ne sont pas activées manuellement dans votre. Compte AWS L'activation manuelle des régions n'est pas requise pour que l'inférence interrégionale fonctionne.
+ Toutes les données transmises pendant les opérations interrégionales restent sur le AWS réseau et ne transitent pas par l'Internet public. Les données sont cryptées pendant leur transit entre les deux Régions AWS.
+ Toutes les demandes d'inférence interrégionales sont enregistrées CloudTrail dans votre région source. Recherchez le `additionalEventData.inferenceRegion` champ pour identifier l'endroit où les demandes ont été traitées.
+ AWS Les services fournis par Amazon Bedrock peuvent également utiliser CRIS. Pour plus de détails, consultez la documentation spécifique aux services.

# Inférence géographique interrégionale
<a name="geographic-cross-region-inference"></a>

L'inférence géographique interrégionale permet de maintenir le traitement des données dans les limites géographiques spécifiées (États-Unis, UE, Asie-Pacifique, etc.) tout en fournissant un débit supérieur à celui de l'inférence à une seule région. Cette option est idéale pour les entreprises soumises à des exigences en matière de résidence des données et à des réglementations de conformité.

## Considérations relatives à l'inférence géographique entre régions
<a name="geographic-cris-considerations"></a>

Notez les informations suivantes concernant l'inférence géographique interrégionale :
+ Les demandes d'inférence interrégionales relatives à un profil d'inférence lié à une zone géographique (États-Unis, UE et Asie-Pacifique, par exemple) sont conservées dans les limites de la Régions AWS zone géographique dans laquelle les données se trouvent à l'origine. Par exemple, une demande faite aux États-Unis est conservée Régions AWS aux États-Unis. Bien que les données restent stockées uniquement dans la région, vos invites de saisie et les résultats de sortie peuvent être déplacés en dehors de votre région source durant l’inférence interrégionale. Toutes les données seront transmises chiffrées sur le réseau sécurisé d’Amazon.
+ Pour voir les quotas par défaut pour le débit interrégional lorsque vous utilisez des profils d’inférence liés à une zone géographique (comme US, EU et APAC), consultez les valeurs relatives aux **demandes d’inférence de modèles interrégionales par minute pour \$1\$1Model\$1** et aux **jetons d’inférence de modèle interrégionaux par minute pour \$1\$1Model\$1** dans la section [Quotas de service Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) de la *Référence générale AWS *.

## Exigences de la politique IAM pour l'inférence géographique interrégionale
<a name="geographic-cris-iam-setup"></a>

Pour autoriser un utilisateur ou un rôle IAM à invoquer un profil d'inférence géographique interrégional, vous devez autoriser l'accès aux ressources suivantes :

1. Le profil d'inférence interrégional spécifique à la géographie (ces profils ont des préfixes géographiques tels que,,) `us` `eu` `apac`

1. Le modèle de base dans la région source

1. Le modèle de base dans toutes les régions de destination répertoriées dans le profil géographique

L'exemple de politique suivant accorde les autorisations requises pour utiliser le modèle de base Claude Sonnet 4.5 avec un profil d'inférence géographique interrégional pour les États-Unis, où se trouvent la région source `us-east-1` et les régions de destination sont`us-east-1`, `us-east-2` et : `us-west-2`

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "GrantGeoCrisInferenceProfileAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:us-east-1:<ACCOUNT_ID>:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0"
            ]
        },
        {
            "Sid": "GrantGeoCrisModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0",
                "arn:aws:bedrock:us-east-2::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0",
                "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0"
            ],
            "Condition": {
                "StringEquals": {
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-east-1:<ACCOUNT_ID>:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0"
                }
            }
        }
    ]
}
```

La première instruction accorde à `bedrock:InvokeModel` l'API l'accès au profil d'inférence géographique interrégional pour les demandes provenant de la région demandeuse. La deuxième déclaration accorde à l'`bedrock:InvokeModel`API l'accès au modèle de base à la fois dans la région demandeuse et dans toutes les régions de destination répertoriées dans le profil d'inférence.

## Exigences de la politique de contrôle des services pour l'inférence géographique interrégionale
<a name="geographic-cris-scp-setup"></a>

De nombreuses organisations mettent en œuvre des contrôles d'accès régionaux par le biais de politiques de contrôle des services dans AWS les organisations à des fins de sécurité et de conformité. Si la politique de sécurité de votre organisation consiste SCPs à bloquer les régions non utilisées, vous devez vous assurer que les conditions SCP spécifiques à votre région autorisent l'accès à toutes les régions de destination répertoriées dans le profil d'inférence géographique interrégional de votre région source.

Pour l'inférence géographique entre régions, vous devez comprendre la relation entre votre région source (où vous effectuez l'appel d'API) et les régions de destination (où les demandes peuvent être acheminées). Consultez la documentation du profil d'inférence pour identifier toutes les régions de destination pour votre région source, puis assurez-vous d' SCPs autoriser l'accès à toutes ces régions de destination.

Par exemple, si vous appelez depuis us-east-1 (région source) en utilisant le profil géographique 4.5 de l'anthropique américain Claude Sonnet, les demandes peuvent être acheminées vers us-east-1, us-east-2 et us-west-2 (régions de destination). Si un SCP restreint l'accès uniquement à us-east-1, l'inférence interrégionale échouera lors de la tentative de routage vers us-east-2 ou us-west-2. Par conséquent, vous devez autoriser les trois régions de destination dans votre SCP, quelle que soit la région d'où vous appelez.

Lorsque vous configurez SCPs l'exclusion de région, n'oubliez pas que le blocage de toute région de destination dans le profil d'inférence empêchera l'inférence entre régions de fonctionner correctement, même si votre région source reste accessible. Pour les exigences du SCP pour l'inférence interrégionale globale, voir. [Exigences relatives à la politique de contrôle des services pour l'inférence interrégionale globale](global-cross-region-inference.md#global-cris-scp-setup)

Pour améliorer la sécurité, pensez à utiliser `bedrock:InferenceProfileArn` cette condition pour limiter l'accès à des profils d'inférence spécifiques. Cela vous permet d'accorder l'accès aux régions requises tout en limitant les profils d'inférence pouvant être utilisés.

## Utiliser l'inférence géographique entre régions
<a name="geographic-cris-usage"></a>

Pour utiliser l'inférence géographique entre régions, vous devez inclure un [profil d'inférence](inference-profiles.md) lorsque vous exécutez l'inférence de modèle de la manière suivante :
+ **Inférence de modèle à la demande** : spécifiez l'identifiant du profil d'inférence `modelId` lors de l'envoi d'une demande [InvokeModel[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), d'un [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou d'une demande. [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html) Un profil d’inférence définit une ou plusieurs régions vers lesquelles il peut acheminer les demandes d’inférence provenant de votre région source. L’utilisation de l’inférence interrégionale augmente le débit et les performances en acheminant dynamiquement les demandes d’invocation du modèle entre les régions définies dans le profil d’inférence. Facteurs de routage influant sur le trafic utilisateur, la demande et l’utilisation des ressources. Pour de plus amples informations, consultez [Soumission d’invites et génération de réponses à l’aide de l’inférence de modèle](inference.md).
+ **Inférence par lots** — Soumettez les demandes de manière asynchrone avec l'inférence par lots en spécifiant l'ID du profil d'inférence lors de l'envoi d'une demande. `modelId` [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) L’utilisation d’un profil d’inférence vous permet d’utiliser le calcul sur plusieurs Régions AWS et d’accélérer les temps de traitement de vos tâches par lot. Une fois le travail terminé, vous pouvez récupérer les fichiers de sortie depuis le compartiment Amazon S3 dans la région source.
+ **Agents** : spécifiez l’ID du profil d’inférence dans le champ `foundationModel` d’une demande [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgent.html). Pour de plus amples informations, veuillez consulter [Création et configuration manuelles de l’agent](agents-create.md).
+ **Génération de réponses dans la base de connaissances** : vous pouvez utiliser l’inférence interrégionale lorsque vous générez une réponse après avoir interrogé une base de connaissances. Pour de plus amples informations, veuillez consulter [Test de votre base de connaissances avec des requêtes et des réponses](knowledge-base-test.md).
+ **Évaluation du modèle** : vous pouvez soumettre un profil d’inférence en tant que modèle à évaluer lorsque vous soumettez une tâche d’évaluation des modèles. Pour de plus amples informations, veuillez consulter [Évaluation des performances des ressources Amazon Bedrock](evaluation.md).
+ **Gestion des promptes** : vous pouvez utiliser l’inférence interrégionale lorsque vous générez une réponse à une invite que vous avez créée dans Gestion des invites. Pour de plus amples informations, consultez [Création et stockage d’invites réutilisables avec la gestion des invites dans Amazon Bedrock](prompt-management.md).
+ **Flux d’invite** : vous pouvez utiliser l’inférence interrégionale lorsque vous générez une réponse à une invite que vous définissez en ligne dans un nœud d’invite d’un flux d’invite. Pour de plus amples informations, veuillez consulter [Créez un flux de travail d'IA end-to-end génératif avec Amazon Bedrock Flows](flows.md).

Pour savoir comment utiliser un profil d’inférence pour envoyer des demandes d’invocation de modèles interrégionaux, consultez [Utilisation d’un profil d’inférence lors de l’invocation du modèle](inference-profiles-use.md).

Pour plus d’informations sur l’inférence interrégionale, consultez [Présentation de l’inférence interrégionale dans Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/getting-started-with-cross-region-inference-in-amazon-bedrock/).

Pour des informations détaillées sur l'inférence interrégionale globale, y compris la configuration IAM et la gestion des quotas de service, consultez. [Inférence interrégionale globale](global-cross-region-inference.md)

# Inférence interrégionale globale
<a name="global-cross-region-inference"></a>

L'inférence interrégionale mondiale étend l'inférence interrégionale au-delà des limites géographiques, permettant d'acheminer les demandes d'inférence vers les entreprises commerciales prises en charge Régions AWS dans le monde entier, d'optimiser les ressources disponibles et d'augmenter le débit des modèles.

## Avantages de l'inférence interrégionale à l'échelle mondiale
<a name="global-cris-benefits"></a>

L'inférence interrégionale globale pour Claude Sonnet 4.5 d'Anthropic offre de nombreux avantages par rapport aux profils d'inférence interrégionaux géographiques traditionnels :
+ **Débit amélioré en période de pointe** — L'inférence interrégionale globale améliore la résilience pendant les périodes de pointe en acheminant automatiquement les demandes vers Régions AWS la capacité disponible. Ce routage dynamique s'effectue de manière fluide, sans configuration supplémentaire ni intervention de la part des développeurs. Contrairement aux approches traditionnelles qui peuvent nécessiter un équilibrage de charge complexe côté client Régions AWS, l'inférence interrégionale globale gère automatiquement les pics de trafic. Cela est particulièrement important pour les applications critiques pour lesquelles les temps d'arrêt ou la dégradation des performances peuvent avoir des répercussions financières ou de réputation importantes.
+ **Rentabilité — L'**inférence interrégionale globale pour Claude Sonnet 4.5 d'Anthropic permet de réaliser des économies d'environ 10 % sur la tarification des jetons d'entrée et de sortie par rapport à l'inférence géographique interrégionale. Le prix est calculé en fonction Région AWS de l'origine de la demande (source Région AWS). Cela signifie que les entreprises peuvent bénéficier d'une résilience améliorée à des coûts encore plus bas. Ce modèle de tarification fait de l'inférence interrégionale mondiale une solution rentable pour les entreprises qui cherchent à optimiser leurs déploiements d'IA générative. En améliorant l'utilisation des ressources et en permettant d'augmenter le débit sans coûts supplémentaires, il aide les entreprises à maximiser la valeur de leur investissement dans Amazon Bedrock.
+ **Surveillance rationalisée** : lorsque vous utilisez l'inférence interrégionale globale, CloudTrail continuez à enregistrer CloudWatch les entrées du journal dans votre source Région AWS, ce qui simplifie l'observabilité et la gestion. Même si vos demandes sont traitées dans différents pays du Régions AWS monde, vous conservez une vue centralisée des performances et des modèles d'utilisation de votre application grâce à vos outils AWS de surveillance habituels.
+ **Flexibilité des quotas à la demande** — Grâce à l'inférence interrégionale globale, vos charges de travail ne sont plus limitées par la capacité régionale individuelle. Au lieu d'être limitées à la capacité disponible dans un domaine spécifique Région AWS, vos demandes peuvent être acheminées dynamiquement à travers l'infrastructure AWS mondiale. Cela permet d'accéder à un pool de ressources beaucoup plus important, ce qui simplifie la gestion de charges de travail volumineuses et de pics de trafic soudains.

## Considérations relatives à l'inférence interrégionale à l'échelle mondiale
<a name="global-cris-considerations"></a>

Notez les informations suivantes concernant l'inférence interrégionale globale :
+ Les profils d’inférence interrégionaux mondiaux fournissent un débit supérieur à celui d’un profil d’inférence lié à une zone géographique particulière. Un profil d’inférence lié à une zone géographique particulière offre un débit supérieur à celui de l’inférence à une seule région.
+ Pour voir les quotas par défaut pour le débit interrégional lorsque vous utilisez des profils d’inférence globaux, consultez les valeurs relatives aux **demandes d’inférence de modèle interrégionales globales par minute pour \$1\$1Model\$1** et aux **jetons d’inférence de modèle interrégionale par minute pour \$1\$1Model\$1** dans la section [Quotas de service Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) de la *Référence générale AWS *.

  Vous pouvez demander, consulter et gérer des quotas pour le profil d'inférence interrégional global à partir de la [console Service Quotas](https://console.aws.amazon.com/servicequotas/home/services/bedrock/quotas) ou à l'aide des commandes AWS CLI dans votre région **source**.

## Exigences relatives à la politique IAM pour l'inférence interrégionale globale
<a name="global-cris-iam-setup"></a>

Pour activer l'inférence interrégionale globale pour vos utilisateurs, vous devez appliquer une politique IAM en trois parties au rôle. Voici un exemple de politique IAM permettant un contrôle granulaire. Vous pouvez remplacer `<REQUESTING REGION>` dans l'exemple de politique par celle dans Région AWS laquelle vous opérez.

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "GrantGlobalCrisInferenceProfileRegionAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "<REQUESTING REGION>"
                }
            }
        },
        {
            "Sid": "GrantGlobalCrisInferenceProfileInRegionModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:<REQUESTING REGION>::foundation-model/<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "<REQUESTING REGION>",
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
                }
            }
        },
        {
            "Sid": "GrantGlobalCrisInferenceProfileGlobalModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:::foundation-model/<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "unspecified",
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
                }
            }
        }
    ]
}
```

La première partie de la politique donne accès au profil d'inférence régional dans votre demande Région AWS. La deuxième partie donne accès à la ressource FM régionale. La troisième partie donne accès à la ressource FM mondiale, qui permet la capacité de routage entre régions.

Lors de la mise en œuvre de ces politiques, assurez-vous que les trois ressources Amazon Resource Names (ARNs) sont incluses dans vos instructions IAM :
+ Le profil d'inférence régional ARN suit le modèle. `arn:aws:bedrock:REGION:ACCOUNT:inference-profile/global.MODEL-NAME` Ceci est utilisé pour donner accès au profil d'inférence global dans la source Région AWS.
+ Le Regional FM utilise`arn:aws:bedrock:REGION::foundation-model/MODEL-NAME`. Ceci est utilisé pour donner accès au FM dans la source Région AWS.
+ Le FM mondial nécessite`arn:aws:bedrock:::foundation-model/MODEL-NAME`. Ceci est utilisé pour donner accès à la FM dans différents pays Régions AWS.

L'ARN FM global n'a pas Région AWS de compte spécifié, ce qui est intentionnel et requis pour la fonctionnalité interrégionale.

### Désactiver l'inférence interrégionale globale
<a name="global-cris-iam-disable"></a>

Vous pouvez choisir entre deux approches principales pour mettre en œuvre des politiques de refus dans le CRIS global pour des rôles IAM spécifiques, chacune ayant des cas d'utilisation et des implications différents :
+ **Supprimer une stratégie IAM** — La première méthode consiste à supprimer une ou plusieurs des trois politiques IAM requises des autorisations utilisateur. Étant donné que le CRIS global nécessite le fonctionnement des trois politiques, la suppression d'une politique entraînera un refus d'accès.
+ **Mettre en œuvre une politique de refus** — La deuxième approche consiste à mettre en œuvre une politique de refus explicite qui cible spécifiquement les profils d'inférence CRIS globaux. Cette méthode fournit une documentation claire de vos intentions en matière de sécurité et garantit que même si quelqu'un ajoute accidentellement les politiques d'autorisation requises ultérieurement, le refus explicite aura la priorité. La politique de refus doit utiliser une `StringEquals` condition correspondant au modèle`"aws:RequestedRegion": "unspecified"`. Ce modèle cible spécifiquement les profils d'inférence avec le `global` préfixe.

Lors de la mise en œuvre de politiques de refus, il est essentiel de comprendre que le CRIS global modifie le comportement du `aws:RequestedRegion` terrain. Les politiques Région AWS de refus traditionnelles qui utilisent des `StringEquals` conditions portant des Région AWS noms spécifiques, tels que, ne `"aws:RequestedRegion": "us-west-2"` fonctionneront pas comme prévu avec le CRIS global, car le service définit ce champ sur la destination `global` plutôt que sur la destination réelle Région AWS. Cependant, comme mentionné précédemment, il en `"aws:RequestedRegion": "unspecified"` résultera un effet de refus.

## Exigences relatives à la politique de contrôle des services pour l'inférence interrégionale globale
<a name="global-cris-scp-setup"></a>

Pour l'inférence interrégionale globale, si la politique de sécurité de votre organisation bloque les régions non utilisées, vous devez mettre SCPs à jour les conditions SCP spécifiques à votre région pour autoriser l'accès avec. `"aws:RequestedRegion": "unspecified"` Cette condition est spécifique à l'inférence interrégionale d'Amazon Bedrock Global et garantit que les demandes peuvent être acheminées vers toutes les régions commerciales prises en charge. AWS 

L'exemple de SCP suivant bloque tous les appels d' AWS API en dehors des régions approuvées tout en autorisant les appels d'inférence interrégionaux Amazon Bedrock Global qui sont utilisés `"unspecified"` comme région pour le routage mondial :

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "DenyAllOutsideApprovedRegions",
            "Effect": "Deny",
            "Action": "*",
            "Resource": "*",
            "Condition": {
                "StringNotEquals": {
                    "aws:RequestedRegion": [
                        "us-east-1",
                        "us-east-2",
                        "us-west-2",
                        "unspecified"
                    ]
                }
            }
        }
    ]
}
```

### Désactiver l'inférence interrégionale globale
<a name="global-cris-disable"></a>

Organisations soumises à des exigences en matière de résidence ou de conformité des données doivent évaluer si l'inférence interrégionale globale correspond à leur cadre de conformité, étant donné que les demandes peuvent être traitées dans d'autres régions AWS commerciales prises en charge. Pour désactiver explicitement l'inférence interrégionale globale, implémentez la politique SCP suivante :

```
{
    "Effect": "Deny",
    "Action": "bedrock:*",
    "Resource": "*",
    "Condition": {
        "StringEquals": {
            "aws:RequestedRegion": "unspecified"
        },
        "ArnLike": {
            "bedrock:InferenceProfileArn": "arn:aws:bedrock:*:*:inference-profile/global.*"
        }
    }
}
```

Ce SCP refuse explicitement l'inférence interrégionale globale car la condition `"aws:RequestedRegion"` est `"unspecified"` et la `"ArnLike"` condition ciblent les profils d'inférence dont le `global` préfixe est dans l'ARN.

### AWS Implémentation de la Control Tower
<a name="control-tower-scp"></a>

L'édition manuelle SCPs gérée par AWS Control Tower est fortement déconseillée car elle peut entraîner une dérive. Utilisez plutôt les mécanismes fournis par Control Tower pour gérer ces exceptions. Les principes de base impliquent soit d'étendre les contrôles de refus de région existants, soit d'activer les régions, puis d'appliquer une politique de blocage conditionnel personnalisée.

Pour obtenir des step-by-step conseils détaillés sur la mise en œuvre de l'inférence interrégionale avec Control Tower, consultez le billet de blog Enable [Amazon Bedrock Cross-region inférence in multi-comptes](https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/). Cela couvre l'extension du refus de région existant SCPs, l'activation des régions refusées avec la personnalisation SCPs et l'utilisation de Customizations for AWS Control Tower (CfCT) pour déployer une infrastructure personnalisée SCPs sous forme de code.

## Augmentation de la limite de demandes pour l'inférence interrégionale globale
<a name="global-cris-quotas"></a>

Lorsque vous utilisez des profils d'inférence CRIS globaux, vous pouvez utiliser des CRIS globaux provenant de plus de 20 sources Régions AWS prises en charge. Comme il s'agira d'une limite globale, les demandes d'affichage, de gestion ou d'augmentation des quotas pour les profils d'inférence interrégionaux globaux doivent être effectuées via la console Service Quotas ou l'interface de ligne de AWS commande (AWS CLI) de la source demandée. Région AWS

Procédez comme suit pour demander une augmentation de limite :

1. Connectez-vous à la console Service Quotas de votre AWS compte.

1. Dans le panneau de navigation, choisissez **Services AWS **.

1. Dans la liste des services, recherchez et choisissez **Amazon Bedrock**.

1. Dans la liste des quotas pour Amazon Bedrock, utilisez le filtre de recherche pour trouver les quotas mondiaux CRIS spécifiques. Par exemple :
   + Jetons d'inférence de modèles interrégionaux mondiaux par minute pour Anthropic Claude Sonnet 4.5 V1

1. Sélectionnez le quota que vous souhaitez augmenter.

1. Choisissez **Demander une augmentation au niveau du compte**.

1. Entrez la nouvelle valeur de quota souhaitée.

1. Choisissez **Request** pour soumettre votre demande.

Lorsque vous calculez l'augmentation de quota requise, n'oubliez pas de prendre en compte le taux de combustion, défini comme le taux auquel les jetons d'entrée et de sortie sont convertis en quotas d'utilisation de jetons pour le système de régulation. Les modèles suivants ont un **taux de combustion 5 fois supérieur à celui des jetons de sortie (1 jeton de sortie consomme 5 jetons de vos quotas)** :
+ Claude Anthropic, opus 4
+ Claude Sonnet anthropique 4.5
+ Anthropic Claude Sonnet 4
+ Sonnet Anthropic Claude 3.7

Pour tous les autres modèles, le taux de destruction est de **1:1** (1 jeton de sortie consomme 1 jeton de votre quota). Pour les jetons d'entrée, le ratio jeton/quota est de 1:1. Le calcul du nombre total de jetons par demande est le suivant :

`Input token count + Cache write input tokens + (Output token count x Burndown rate)`

## Utiliser l'inférence interrégionale globale
<a name="global-cris-usage"></a>

Pour utiliser l'inférence interrégionale globale avec Claude Sonnet 4.5 d'Anthropic, les développeurs doivent suivre les étapes clés suivantes :
+ **Utiliser l'identifiant du profil d'inférence global** : lorsque vous effectuez des appels d'API vers Amazon Bedrock, spécifiez l'identifiant du profil d'inférence Claude Sonnet 4.5 d'Anthropic global (`global.anthropic.claude-sonnet-4-5-20250929-v1:0`) au lieu d'un identifiant de modèle spécifique. Région AWS
+ **Configurer les autorisations IAM** : accordez les autorisations IAM appropriées pour accéder au profil d'inférence et FMs à une destination potentielle. Régions AWS

L'inférence interrégionale globale est prise en charge pour :
+ Inférence de modèles à la demande
+ Inférence par lots
+ Agents
+ Évaluation de modèle
+ Gestion des invites
+ Des flux rapides

**Note**  
Le profil d’inférence global est pris en charge pour l’inférence de modèle à la demande, l’inférence par lots, les agents, l’évaluation des modèles, la gestion des invites et les flux d’invite.

## Mettre en œuvre l'inférence interrégionale globale
<a name="global-cris-implementation"></a>

La mise en œuvre de l'inférence interrégionale globale avec Claude Sonnet 4.5 d'Anthropic est simple et ne nécessite que quelques modifications du code de votre application existant. Voici un exemple de mise à jour de votre code en Python :

```
import boto3
import json
bedrock = boto3.client('bedrock-runtime', region_name='us-east-1')
model_id = "global.anthropic.claude-sonnet-4-5-20250929-v1:0"  
response = bedrock.converse(
    messages=[{"role": "user", "content": [{"text": "Explain cloud computing in 2 sentences."}]}],
    modelId=model_id,
)

print("Response:", response['output']['message']['content'][0]['text'])
print("Token usage:", response['usage'])
print("Total tokens:", response['usage']['totalTokens'])
```

# Configurer une ressource d’invocation de modèle à l’aide de profils d’inférence
<a name="inference-profiles"></a>

Les *profils d’inférence* sont une ressource d’Amazon Bedrock qui définit un modèle et une ou plusieurs régions vers lesquelles le profil d’inférence peut acheminer les demandes d’invocation de modèles. Vous pouvez utiliser les profils d’inférence des manières suivantes :
+ **Suivi des statistiques d'utilisation** — Configurez CloudWatch des journaux et soumettez des demandes d'invocation de modèles avec un profil d'inférence d'application afin de collecter des métriques d'utilisation pour l'invocation du modèle. Vous pouvez examiner ces indicateurs lorsque vous consultez les informations relatives au profil d’inférence et les utiliser pour prendre des décisions éclairées. Pour plus d'informations sur la configuration CloudWatch des journaux, consultez[Surveillez l'invocation du modèle à l'aide de CloudWatch Logs et d'Amazon S3](model-invocation-logging.md).
+ **Utilisez des balises pour surveiller les coûts** : associez des balises à un profil d’inférence d’application pour suivre les coûts lorsque vous soumettez des demandes d’invocation de modèles à la demande. Pour plus d'informations sur l'utilisation des balises pour la répartition des coûts, consultez la section [Organisation et suivi des coûts à l'aide des balises de répartition des AWS coûts](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/cost-alloc-tags.html) dans le guide de AWS Billing l'utilisateur.
+ **Inférence interrégionale** : augmentez votre débit en utilisant un profil d’inférence qui inclut plusieurs Régions AWS. Le profil d’inférence distribuera les demandes d’invocation de modèles dans ces régions afin d’augmenter le débit et les performances. Pour plus d’informations sur l’inférence interrégionale, consultez [Augmentez le débit grâce à l’inférence entre régions](cross-region-inference.md).

Amazon Bedrock propose les types d’inférence suivants :
+ **Profils d’inférence interrégionale (définis par le système) :** profils d’inférence prédéfinis dans Amazon Bedrock et incluant plusieurs régions vers lesquelles les demandes de modèle peuvent être acheminées.
+ **Profils d’inférence d’applications :** profils d’inférence créés par un utilisateur pour suivre les coûts et l’utilisation du modèle. Vous pouvez créer un profil d’inférence qui achemine les demandes d’invocation de modèles vers une ou plusieurs régions :
  + Pour créer un profil d’inférence permettant de suivre les coûts et l’utilisation d’un modèle dans une région, spécifiez le modèle de fondation dans la région vers laquelle vous souhaitez que le profil d’inférence achemine les demandes.
  + Pour créer un profil d’inférence permettant de suivre les coûts et l’utilisation d’un modèle dans plusieurs régions, spécifiez le profil d’inférence interrégional (défini par le système) qui définit le modèle et les régions vers lesquels vous souhaitez que le profil d’inférence achemine les demandes.

Vous pouvez utiliser des profils d’inférence dotés des fonctionnalités suivantes pour acheminer les demandes vers plusieurs régions et pour suivre l’utilisation et le coût des demandes d’invocation effectuées avec ces fonctionnalités :
+ [Inférence de modèle : utilisez un profil d'inférence lors de l'invocation de modèle en choisissant un profil d'inférence dans un terrain de jeu dans la console Amazon Bedrock ou en spécifiant l'ARN du profil d'inférence lorsque vous appelez les opérations [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html),, [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)Converse et. [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) Pour de plus amples informations, veuillez consulter [Soumission d’invites et génération de réponses à l’aide de l’inférence de modèle](inference.md).
+ Vectorisation dans la base de connaissances et génération de réponses : utilisez un profil d’inférence lorsque vous générez une réponse après avoir consulté une base de connaissances ou lorsque vous analysez des informations non textuelles dans une source de données. Pour plus d’informations, consultez [Test de votre base de connaissances avec des requêtes et des réponses](knowledge-base-test.md) et [Options d’analyse structurée pour votre source de données](kb-advanced-parsing.md).
+ Évaluation du modèle : vous pouvez soumettre un profil d’inférence en tant que modèle à évaluer lorsque vous soumettez une tâche d’évaluation des modèles. Pour de plus amples informations, veuillez consulter [Évaluation des performances des ressources Amazon Bedrock](evaluation.md).
+ Gestion des promptes : vous pouvez utiliser un profil d’inférence lorsque vous générez une réponse à une invite que vous avez créée dans la gestion des invites. Pour de plus amples informations, consultez [Création et stockage d’invites réutilisables avec la gestion des invites dans Amazon Bedrock](prompt-management.md).
+ Flux : vous pouvez utiliser un profil d’inférence lorsque vous générez une réponse à une invite que vous définissez en ligne dans un nœud d’invite d’un flux. Pour de plus amples informations, veuillez consulter [Créez un flux de travail d'IA end-to-end génératif avec Amazon Bedrock Flows](flows.md).

Le prix d’utilisation d’un profil d’inférence est calculé en fonction du prix du modèle dans la région à partir de laquelle vous appelez le profil d’inférence. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).

Pour plus de détails sur le débit qu’un profil d’inférence interrégional peut offrir, consultez [Augmentez le débit grâce à l’inférence entre régions](cross-region-inference.md).

**Topics**
+ [Régions et modèles pris en charge pour les profils d'inférence](inference-profiles-support.md)
+ [Conditions préalables pour les profils d’inférence](inference-profiles-prereq.md)
+ [Création d’un profil d’inférence d’application](inference-profiles-create.md)
+ [Modification des balises d’un profil d’inférence d’application](inference-profiles-modify.md)
+ [Affichage des informations concernant un profil d’inférence](inference-profiles-view.md)
+ [Utilisation d’un profil d’inférence lors de l’invocation du modèle](inference-profiles-use.md)
+ [Suppression d’un profil d’inférence d’application](inference-profiles-delete.md)

# Régions et modèles pris en charge pour les profils d'inférence
<a name="inference-profiles-support"></a>

Pour obtenir la liste des codes de région et des points de terminaison pris en charge dans Amazon Bedrock, consultez [Points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bedrock_region). Cette rubrique décrit les profils d'inférence prédéfinis que vous pouvez utiliser ainsi que les régions et les modèles qui prennent en charge les profils d'inférence d'application.

**Topics**
+ [Profils d'inférence interrégionaux pris en charge](#inference-profiles-support-system)
+ [Régions et modèles pris en charge pour les profils d'inférence d'applications](#inference-profiles-support-user)

## Profils d'inférence interrégionaux pris en charge
<a name="inference-profiles-support-system"></a>

Vous pouvez effectuer une inférence [entre régions à l'aide de profils d'inférence](cross-region-inference.md) entre régions (définis par le système). L'inférence entre régions vous permet de gérer de manière fluide les pics de trafic imprévus en utilisant le calcul entre différentes régions. Régions AWS Grâce à l’inférence interrégionale, vous pouvez répartir le trafic entre plusieurs Régions AWS.

Les profils d’inférence (définis par le système) interrégionaux sont nommés d’après le modèle qu’ils prennent en charge et définis par les régions qu’ils prennent en charge. Pour comprendre comment un profil d’inférence interrégional gère vos demandes, consultez les définitions suivantes :
+ **Région source** : région à partir de laquelle vous effectuez la demande d’API qui spécifie le profil d’inférence.
+ **Région de destination** : région dans laquelle le service Amazon Bedrock peut acheminer la demande depuis votre région source.

Lorsque vous invoquez un profil d’inférence interrégional dans Amazon Bedrock, votre demande provient d’une région source et est automatiquement acheminée vers l’une des régions de destination définies dans ce profil, optimisant ainsi les performances. Les régions de destination pour les profils d’inférence interrégionaux mondiaux incluent toutes les régions commerciales.

**Note**  
Les régions de destination d'un profil d'inférence interrégional peuvent inclure des *régions facultatives, qui sont des régions* que vous devez explicitement activer au niveau de l'organisation Compte AWS ou au niveau de l'organisation. Pour en savoir plus, consultez la section [Activer ou désactiver Régions AWS dans votre compte](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html). Lorsque vous utilisez un profil d’inférence interrégional, votre demande d’inférence peut être acheminée vers l’une des régions de destination figurant dans le profil, même si vous n’avez pas activé ces régions dans votre compte.

Les politiques de contrôle des services (SCPs) et Gestion des identités et des accès AWS (IAM) fonctionnent ensemble pour contrôler les endroits où l'inférence entre régions est autorisée. En utilisant SCPs, vous pouvez contrôler les régions qu'Amazon Bedrock peut utiliser pour l'inférence, et en utilisant les politiques IAM, vous pouvez définir les utilisateurs ou les rôles autorisés à exécuter l'inférence. Si l'une des régions de destination d'un profil d'inférence interrégional est bloquée dans votre profil SCPs, la demande échouera même si les autres régions restent autorisées. Pour garantir un fonctionnement efficace de l'inférence entre régions, vous pouvez mettre à jour vos politiques SCPs et celles d'IAM afin d'autoriser toutes les actions d'inférence Amazon Bedrock requises (par exemple, `bedrock:InvokeModel*` ou`bedrock:CreateModelInvocationJob`) dans toutes les régions de destination incluses dans le profil d'inférence que vous avez choisi. Pour en savoir plus, consultez [Activation de l’inférence interrégionale Amazon Bedrock dans les environnements multicomptes](https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/).

**Note**  
Certains profils d’inférence sont acheminés vers différentes régions de destination en fonction de la région source à partir de laquelle vous les appelez. Par exemple, si vous appelez `us.anthropic.claude-3-haiku-20240307-v1:0` depuis la région USA Est (Ohio), il peut acheminer les demandes vers `us-east-1`, `us-east-2` ou `us-west-2`, mais si vous l’appelez depuis la région USA Ouest (Oregon), il peut acheminer les demandes uniquement vers `us-east-1` et `us-west-2`.

Pour vérifier les régions source et de destination d’un profil d’inférence, vous pouvez effectuer l’une des opérations suivantes :
+ Développez la section correspondante dans la [liste des profils d’inférence interrégionaux pris en charge](#inference-profiles-support).
+ Envoyez une [GetInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetInferenceProfile.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) depuis une région source et spécifiez le nom de ressource Amazon (ARN) ou l'ID du profil d'inférence dans le `inferenceProfileIdentifier` champ. Le `models` champ de la réponse correspond à une liste de modèles ARNs dans laquelle vous pouvez identifier chaque région de destination.

**Note**  
Le profil d'inférence interrégional global pour un modèle spécifique peut changer au fil du temps en raison de l' AWS ajout de nouvelles régions commerciales dans lesquelles vos demandes peuvent être traitées. Toutefois, si un profil d'inférence est lié à une zone géographique (comme les États-Unis, l'UE ou la région APAC), la liste des régions de destination ne changera jamais. AWS peut créer de nouveaux profils d'inférence incorporant de nouvelles régions. Vous pouvez mettre à jour vos systèmes pour utiliser ces profils d'inférence IDs en remplaçant les nouveaux dans votre configuration.  
Le profil d’inférence interrégional mondial est actuellement pris en charge dans le modèle Anthropic Claude Sonnet 4 uniquement pour les régions source suivantes : USA Ouest (Oregon), USA Est (Virginie du Nord), USA Est (Ohio), Europe (Irlande) et Asie-Pacifique (Tokyo). Les régions de destination du profil d’inférence mondial comprennent toutes les Régions AWS commerciales.

Développez l'une des sections suivantes pour afficher des informations sur un profil d'inférence interrégional, les régions source à partir desquelles il peut être appelé et les régions de destination vers lesquelles il peut acheminer les demandes.

### Amazon Nova 2 Lite à l'échelle mondiale
<a name="cross-region-ip-global.amazon.nova-2-lite-v1:0"></a>

Pour appeler le profil d'inférence GLOBAL Amazon Nova 2 Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.amazon.nova-2-lite-v1:0
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### GLOBAL Anthropic Claude Opus 4.5
<a name="cross-region-ip-global.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Pour appeler le profil d'inférence GLOBAL Anthropic Claude Opus 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.anthropic.claude-opus-4-5-20251101-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### GLOBAL TwelveLabs Pegasus v1.2
<a name="cross-region-ip-global.twelvelabs.pegasus-1-2-v1:0"></a>

Pour appeler le profil d'inférence GLOBAL TwelveLabs Pegasus v1.2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.twelvelabs.pegasus-1-2-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-pegasus.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Haïku Claude anthropique mondial 4.5
<a name="cross-region-ip-global.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Pour appeler le profil d'inférence Global Anthropic Claude Haiku 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.anthropic.claude-haiku-4-5-20251001-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Opus 4.6 de Global Anthropic
<a name="cross-region-ip-global.anthropic.claude-opus-4-6-v1"></a>

Pour appeler le profil d'inférence Global Anthropic Claude Opus 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.anthropic.claude-opus-4-6-v1
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Sonnet, anthropique mondial 4.6
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-6"></a>

Pour appeler le profil d'inférence Global Anthropic Claude Sonnet 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
global.anthropic.claude-sonnet-4-6
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Sonnet 4 mondial
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Pour appeler le profil d'inférence global Claude Sonnet 4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
global.anthropic.claude-sonnet-4-20250514-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Sonnet 4.5 à l'échelle mondiale
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence Global Claude Sonnet 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
global.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Global Cohere Embed v4
<a name="cross-region-ip-global.cohere.embed-v4:0"></a>

Pour appeler le profil d'inférence Global Cohere Embed v4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
global.cohere.embed-v4:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-embed.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### États-Unis : Amazon Nova 2 Lite
<a name="cross-region-ip-us.amazon.nova-2-lite-v1:0"></a>

Pour appeler le profil d'inférence Amazon Nova 2 Lite américain, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.amazon.nova-2-lite-v1:0
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Haïku américain Anthropic Claude 3
<a name="cross-region-ip-us.anthropic.claude-3-haiku-20240307-v1:0"></a>

Pour appeler le profil d'inférence américain Anthropic Claude 3 Haiku, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-haiku-20240307-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3 opus
<a name="cross-region-ip-us.anthropic.claude-3-opus-20240229-v1:0"></a>

Pour appeler le profil d'inférence américain Anthropic Claude 3 Opus, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-opus-20240229-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### Sonnet américain Anthropic Claude 3
<a name="cross-region-ip-us.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Pour appeler le profil d'inférence du sonnet américain Anthropic Claude 3, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-sonnet-20240229-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### Haïku américain Anthropic Claude 3.5
<a name="cross-region-ip-us.anthropic.claude-3-5-haiku-20241022-v1:0"></a>

Pour appeler le profil d'inférence Haiku américain Anthropic Claude 3.5, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-5-haiku-20241022-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Sonnet américain Anthropic Claude 3.5
<a name="cross-region-ip-us.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Pour appeler le profil d'inférence du sonnet américain Anthropic Claude 3.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3.5 Sonnet v2
<a name="cross-region-ip-us.anthropic.claude-3-5-sonnet-20241022-v2:0"></a>

Pour appeler le profil d'inférence US Anthropic Claude 3.5 Sonnet v2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-5-sonnet-20241022-v2:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Sonnet américain Anthropic Claude 3.7
<a name="cross-region-ip-us.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Pour appeler le profil d'inférence du sonnet américain Anthropic Claude 3.7, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Claude Haiku, anthropique américain 4.5
<a name="cross-region-ip-us.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Pour appeler le profil d'inférence américain Anthropic Claude Haiku 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-haiku-4-5-20251001-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Claude Opus 4.5, anthropique américain
<a name="cross-region-ip-us.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Pour appeler le profil d'inférence américain Anthropic Claude Opus 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-opus-4-5-20251101-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Anthropic américain Claude Opus 4.6
<a name="cross-region-ip-us.anthropic.claude-opus-4-6-v1"></a>

Pour appeler le profil d'inférence américain Anthropic Claude Opus 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-opus-4-6-v1
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Claude Sonnet, anthropique américain 4.5
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence américain Anthropic Claude Sonnet 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Claude Sonnet, anthropique américain 4.6
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-6"></a>

Pour appeler le profil d'inférence américain Anthropic Claude Sonnet 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-sonnet-4-6
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Claude Opus 4
<a name="cross-region-ip-us.anthropic.claude-opus-4-20250514-v1:0"></a>

Pour appeler le profil d'inférence Claude Opus 4 américain, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-opus-4-20250514-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Claude Opus 4.1
<a name="cross-region-ip-us.anthropic.claude-opus-4-1-20250805-v1:0"></a>

Pour appeler le profil d'inférence américain Claude Opus 4.1, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.anthropic.claude-opus-4-1-20250805-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Claude Sonnet 4
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Pour appeler le profil d'inférence américain Claude Sonnet 4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.anthropic.claude-sonnet-4-20250514-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### USB Cohere Embed v4
<a name="cross-region-ip-us.cohere.embed-v4:0"></a>

Pour appeler le profil d'inférence US Cohere Embed v4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.cohere.embed-v4:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-embed.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis DeepSeek -R1
<a name="cross-region-ip-us.deepseek.r1-v1:0"></a>

Pour appeler le profil d'inférence US DeepSeek -R1, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.deepseek.r1-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://www.deepseek.com/).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Llama 4 Maverick 17B Instruct
<a name="cross-region-ip-us.meta.llama4-maverick-17b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Llama 4 Maverick 17B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama4-maverick-17b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Llama 4 Scout 17B Instruct
<a name="cross-region-ip-us.meta.llama4-scout-17b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Llama 4 Scout 17B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama4-scout-17b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.1 70B Instruct
<a name="cross-region-ip-us.meta.llama3-1-70b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.1 70B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-1-70b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.1 8B Instruct
<a name="cross-region-ip-us.meta.llama3-1-8b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.1 8B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-1-8b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Méta-lama américain 3.1 Instruct 405B
<a name="cross-region-ip-us.meta.llama3-1-405b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.1 Instruct 405B, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-1-405b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.2 11B Instruct
<a name="cross-region-ip-us.meta.llama3-2-11b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.2 11B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-2-11b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 1B Instruct
<a name="cross-region-ip-us.meta.llama3-2-1b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.2 1B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-2-1b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 3B Instruct
<a name="cross-region-ip-us.meta.llama3-2-3b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.2 3B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-2-3b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 90B Instruct
<a name="cross-region-ip-us.meta.llama3-2-90b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.2 90B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-2-90b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.3 70B Instruct
<a name="cross-region-ip-us.meta.llama3-3-70b-instruct-v1:0"></a>

Pour appeler le profil d'inférence US Meta Llama 3.3 70B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.meta.llama3-3-70b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Mistral Pixtral Large 25.02
<a name="cross-region-ip-us.mistral.pixtral-large-2502-v1:0"></a>

Pour appeler le profil d'inférence américain Mistral Pixtral Large 25.02, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.mistral.pixtral-large-2502-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-mistral.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Nova Lite
<a name="cross-region-ip-us.amazon.nova-lite-v1:0"></a>

Pour appeler le profil d'inférence US Nova Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.amazon.nova-lite-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Nova Micro
<a name="cross-region-ip-us.amazon.nova-micro-v1:0"></a>

Pour appeler le profil d'inférence US Nova Micro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.amazon.nova-micro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Nova Premier ministre des États-Unis
<a name="cross-region-ip-us.amazon.nova-premier-v1:0"></a>

Pour appeler le profil d'inférence US Nova Premier, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.amazon.nova-premier-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### États-Unis Nova Pro
<a name="cross-region-ip-us.amazon.nova-pro-v1:0"></a>

Pour appeler le profil d'inférence US Nova Pro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.amazon.nova-pro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Pegasus v1.2
<a name="cross-region-ip-us.twelvelabs.pegasus-1-2-v1:0"></a>

Pour appeler le profil d'inférence US Pegasus v1.2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.twelvelabs.pegasus-1-2-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-pegasus.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Image stable aux États-Unis : conservateur, haut de gamme
<a name="cross-region-ip-us.stability.stable-conservative-upscale-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Conservative Upscale, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-conservative-upscale-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](stable-image-services.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Esquisse de contrôle d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-control-sketch-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Control Sketch, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-image-control-sketch-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Structure de contrôle d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-control-structure-v1:0"></a>

Pour appeler le profil d'inférence de la structure de contrôle d'image stable des États-Unis, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.stability.stable-image-control-structure-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Creative Upscale
<a name="cross-region-ip-us.stability.stable-creative-upscale-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Creative Upscale, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-creative-upscale-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](stable-image-services.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Objet d'effacement d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-erase-object-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Erase Object, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-image-erase-object-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Image stable aux États-Unis, rapide et haut de gamme
<a name="cross-region-ip-us.stability.stable-fast-upscale-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Fast Upscale, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.stability.stable-fast-upscale-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](stable-image-services.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Image stable aux États-Unis \$1 Inpaint
<a name="cross-region-ip-us.stability.stable-image-inpaint-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Inpaint, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.stability.stable-image-inpaint-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Peinture d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-outpaint-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Outpaint, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.stability.stable-outpaint-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](stable-image-services.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Image stable américaine Supprimer l'arrière-plan
<a name="cross-region-ip-us.stability.stable-image-remove-background-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Remove Background, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-image-remove-background-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Recherche et recoloration d'images stables aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-search-recolor-v1:0"></a>

Pour appeler le profil d'inférence américain Stable Image Search and Recolor, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-image-search-recolor-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Recherche et remplacement d'images stables aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-search-replace-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Search and Replace, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.stability.stable-image-search-replace-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Guide de style d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-image-style-guide-v1:0"></a>

Pour appeler le profil d'inférence du US Stable Image Style Guide, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-image-style-guide-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions d'origine | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Transfert de style d'image stable aux États-Unis
<a name="cross-region-ip-us.stability.stable-style-transfer-v1:0"></a>

Pour appeler le profil d'inférence US Stable Image Style Transfer, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.stability.stable-style-transfer-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-stability-diffusion.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US TwelveLabs Marengo Intégrer 3.0
<a name="cross-region-ip-us.twelvelabs.marengo-embed-3-0-v1:0"></a>

Pour appeler le profil d'inférence US TwelveLabs Marengo Embed 3.0, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.twelvelabs.marengo-embed-3-0-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-marengo.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 

### US TwelveLabs Marengo Embed v2.7
<a name="cross-region-ip-us.twelvelabs.marengo-embed-2-7-v1:0"></a>

Pour appeler le profil d'inférence US TwelveLabs Marengo Embed v2.7, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us.twelvelabs.marengo-embed-2-7-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-marengo.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 

### Scénariste américain Palmyra X4
<a name="cross-region-ip-us.writer.palmyra-x4-v1:0"></a>

Pour appeler le profil d'inférence US Writer Palmyra X4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.writer.palmyra-x4-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-writer-palmyra.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Scénariste américain Palmyra X5
<a name="cross-region-ip-us.writer.palmyra-x5-v1:0"></a>

Pour appeler le profil d'inférence US Writer Palmyra X5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us.writer.palmyra-x5-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-writer-palmyra.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Haïku Claude 3 du gouvernement des États-Unis
<a name="cross-region-ip-us-gov.anthropic.claude-3-haiku-20240307-v1:0"></a>

Pour appeler le profil d'inférence Haiku Claude 3 de l'US-GOV, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
us-gov.anthropic.claude-3-haiku-20240307-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### US-GOV Claude 3.5 Sonnet
<a name="cross-region-ip-us-gov.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Pour appeler le profil d'inférence US-GOV Claude 3.5 Sonnet, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us-gov.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### US-GOV Claude 3.7 Sonnet
<a name="cross-region-ip-us-gov.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Pour appeler le profil d'inférence US-GOV Claude 3.7 Sonnet, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us-gov.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### Le gouverneur des États-Unis Claude Sonnet 4.5
<a name="cross-region-ip-us-gov.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence US-GOV Claude Sonnet 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
us-gov.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| us-gov-east-1 |  us-gov-west-1  | 
| us-gov-west-1 |  us-gov-west-1  | 

### Haïku Anthropic Claude 3 de l'APAC
<a name="cross-region-ip-apac.anthropic.claude-3-haiku-20240307-v1:0"></a>

Pour appeler le profil d'inférence APAC Anthropic Claude 3 Haiku, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.anthropic.claude-3-haiku-20240307-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### Sonnet APAC Anthropic Claude 3
<a name="cross-region-ip-apac.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Pour appeler le profil d'inférence APAC Anthropic Claude 3 Sonnet, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.anthropic.claude-3-sonnet-20240229-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### Sonnet APAC Anthropic Claude 3.5
<a name="cross-region-ip-apac.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Pour appeler le profil d'inférence APAC Anthropic Claude 3.5 Sonnet, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### APAC Anthropic Claude 3.5 Sonnet v2
<a name="cross-region-ip-apac.anthropic.claude-3-5-sonnet-20241022-v2:0"></a>

Pour appeler le profil d'inférence APAC Anthropic Claude 3.5 Sonnet v2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.anthropic.claude-3-5-sonnet-20241022-v2:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### Sonnet APAC Anthropic Claude 3.7
<a name="cross-region-ip-apac.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Pour appeler le profil d'inférence APAC Anthropic Claude 3.7 Sonnet, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 

### APAC Claude Sonnet 4
<a name="cross-region-ip-apac.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Pour appeler le profil d'inférence APAC Claude Sonnet 4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
apac.anthropic.claude-sonnet-4-20250514-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Lite
<a name="cross-region-ip-apac.amazon.nova-lite-v1:0"></a>

Pour appeler le profil d'inférence APAC Nova Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.amazon.nova-lite-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Micro
<a name="cross-region-ip-apac.amazon.nova-micro-v1:0"></a>

Pour appeler le profil d'inférence APAC Nova Micro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.amazon.nova-micro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Pro
<a name="cross-region-ip-apac.amazon.nova-pro-v1:0"></a>

Pour appeler le profil d'inférence APAC Nova Pro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
apac.amazon.nova-pro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Pegasus v1.2
<a name="cross-region-ip-apac.twelvelabs.pegasus-1-2-v1:0"></a>

Pour appeler le profil d'inférence APAC Pegasus v1.2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
apac.twelvelabs.pegasus-1-2-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-pegasus.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 

### APAC TwelveLabs Marengo Intégrer v2.7
<a name="cross-region-ip-apac.twelvelabs.marengo-embed-2-7-v1:0"></a>

Pour appeler le profil d'inférence APAC TwelveLabs Marengo Embed v2.7, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
apac.twelvelabs.marengo-embed-2-7-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-marengo.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 

### AU AU Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-au.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence AU AU Anthropic Claude Sonnet 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
au.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### Anthropic Claude Haiku 4.5
<a name="cross-region-ip-au.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Pour appeler le profil d'inférence Claude Haiku 4.5 de l'UA Anthropic, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
au.anthropic.claude-haiku-4-5-20251001-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### AU Anthropic Claude Opus 4.6
<a name="cross-region-ip-au.anthropic.claude-opus-4-6-v1"></a>

Pour appeler le profil d'inférence AU Anthropic Claude Opus 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
au.anthropic.claude-opus-4-6-v1
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### AU Anthropic Claude Sonnet 4.6
<a name="cross-region-ip-au.anthropic.claude-sonnet-4-6"></a>

Pour appeler le profil d'inférence AU Anthropic Claude Sonnet 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
au.anthropic.claude-sonnet-4-6
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### California Nova Lite
<a name="cross-region-ip-ca.amazon.nova-lite-v1:0"></a>

Pour appeler le profil d'inférence CA Nova Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions source :

```
ca.amazon.nova-lite-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ca-central-1 |  ca-central-1 ca-west-1  | 
| ca-west-1 |  ca-central-1 ca-west-1  | 

### UE Amazon Nova 2 Lite
<a name="cross-region-ip-eu.amazon.nova-2-lite-v1:0"></a>

Pour appeler le profil d'inférence Amazon Nova 2 Lite de l'UE, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.amazon.nova-2-lite-v1:0
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### Haïku européen Anthropic Claude 3
<a name="cross-region-ip-eu.anthropic.claude-3-haiku-20240307-v1:0"></a>

Pour appeler le profil d'inférence du haïku européen Anthropic Claude 3, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-3-haiku-20240307-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### Sonnet européen Anthropic Claude 3
<a name="cross-region-ip-eu.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Pour appeler le profil d'inférence européen Anthropic Claude 3 Sonnet, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-3-sonnet-20240229-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### Sonnet européen Anthropic Claude 3.5
<a name="cross-region-ip-eu.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Pour appeler le profil d'inférence EU Anthropic Claude 3.5 Sonnet, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### Sonnet européen Anthropic Claude 3.7
<a name="cross-region-ip-eu.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Pour appeler le profil d'inférence EU Anthropic Claude 3.7 Sonnet, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Haiku 4.5
<a name="cross-region-ip-eu.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Pour appeler le profil d'inférence européen Anthropic Claude Haiku 4.5, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-haiku-4-5-20251001-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Opus 4.5
<a name="cross-region-ip-eu.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Pour appeler le profil d'inférence européen Anthropic Claude Opus 4.5, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-opus-4-5-20251101-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Opus 4.6
<a name="cross-region-ip-eu.anthropic.claude-opus-4-6-v1"></a>

Pour appeler le profil d'inférence européen Anthropic Claude Opus 4.6, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-opus-4-6-v1
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence européen Anthropic Claude Sonnet 4.5, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Sonnet 4.6
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-6"></a>

Pour appeler le profil d'inférence EU Anthropic Claude Sonnet 4.6, spécifiez l'identifiant de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-sonnet-4-6
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### UE Claude Sonnet 4
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Pour appeler le profil d'inférence Claude Sonnet 4 de l'UE, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.anthropic.claude-sonnet-4-20250514-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1  | 

### EU Cohere Embed v4
<a name="cross-region-ip-eu.cohere.embed-v4:0"></a>

Pour appeler le profil d'inférence EU Cohere Embed v4, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.cohere.embed-v4:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-embed.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Meta Llama 3.2 1B Instruct
<a name="cross-region-ip-eu.meta.llama3-2-1b-instruct-v1:0"></a>

Pour appeler le profil d'inférence EU Meta Llama 3.2 1B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.meta.llama3-2-1b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Meta Llama 3.2 3B Instruct
<a name="cross-region-ip-eu.meta.llama3-2-3b-instruct-v1:0"></a>

Pour appeler le profil d'inférence EU Meta Llama 3.2 3B Instruct, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.meta.llama3-2-3b-instruct-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-meta.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Mistral Pixtral Large 25.02
<a name="cross-region-ip-eu.mistral.pixtral-large-2502-v1:0"></a>

Pour appeler le profil d'inférence EU Mistral Pixtral Large 25.02, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.mistral.pixtral-large-2502-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-mistral.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 

### UE Nova Lite
<a name="cross-region-ip-eu.amazon.nova-lite-v1:0"></a>

Pour appeler le profil d'inférence EU Nova Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.amazon.nova-lite-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### UE Nova Micro
<a name="cross-region-ip-eu.amazon.nova-micro-v1:0"></a>

Pour appeler le profil d'inférence EU Nova Micro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.amazon.nova-micro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### UE Nova Pro
<a name="cross-region-ip-eu.amazon.nova-pro-v1:0"></a>

Pour appeler le profil d'inférence EU Nova Pro, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.amazon.nova-pro-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### EU TwelveLabs Marengo Intégrer 3.0
<a name="cross-region-ip-eu.twelvelabs.marengo-embed-3-0-v1:0"></a>

Pour appeler le profil d'inférence EU TwelveLabs Marengo Embed 3.0, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.twelvelabs.marengo-embed-3-0-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-marengo.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU TwelveLabs Marengo Embed v2.7
<a name="cross-region-ip-eu.twelvelabs.marengo-embed-2-7-v1:0"></a>

Pour appeler le profil d'inférence EU TwelveLabs Marengo Embed v2.7, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.twelvelabs.marengo-embed-2-7-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-marengo.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### UE TwelveLabs Pegasus v1.2
<a name="cross-region-ip-eu.twelvelabs.pegasus-1-2-v1:0"></a>

Pour appeler le profil d'inférence EU TwelveLabs Pegasus v1.2, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
eu.twelvelabs.pegasus-1-2-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-pegasus.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### JP Amazon Nova 2 Lite
<a name="cross-region-ip-jp.amazon.nova-2-lite-v1:0"></a>

Pour appeler le profil d'inférence JP Amazon Nova 2 Lite, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
jp.amazon.nova-2-lite-v1:0
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 

### J.P. Anthropic Claude Haiku 4.5
<a name="cross-region-ip-jp.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Pour appeler le profil d'inférence JP Anthropic Claude Haiku 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
jp.anthropic.claude-haiku-4-5-20251001-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

### J.P. Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-jp.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Pour appeler le profil d'inférence JP Anthropic Claude Sonnet 4.5, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
jp.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Pour plus d'informations sur les paramètres d'inférence pour ce modèle, consultez [Link](model-parameters-claude.md).

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

### J.P. Anthropic Claude Sonnet 4.6
<a name="cross-region-ip-jp.anthropic.claude-sonnet-4-6"></a>

Pour appeler le profil d'inférence JP Anthropic Claude Sonnet 4.6, spécifiez l'ID de profil d'inférence suivant dans l'une des régions sources :

```
jp.anthropic.claude-sonnet-4-6
```

Le tableau suivant indique les régions source à partir desquelles vous pouvez appeler le profil d'inférence et les régions de destination vers lesquelles les demandes peuvent être acheminées :


| Régions sources | Régions de destination | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

## Régions et modèles pris en charge pour les profils d'inférence d'applications
<a name="inference-profiles-support-user"></a>

Des profils d'inférence d'application peuvent être créés pour tous les modèles suivants : Régions AWS
+ ap-northeast-1
+ ap-northeast-2
+ ap-south-1
+ ap-southeast-1
+ ap-southeast-2
+ ca-central-1
+ eu-central-1
+ eu-west-1
+ eu-west-2
+ eu-west-3
+ sa-east-1
+ us-east-1
+ us-east-2
+ us-gov-east-1
+ us-west-2

Les profils d'inférence d'application peuvent être créés à partir de tous les modèles et profils d'inférence pris en charge dans Amazon Bedrock. Pour plus d'informations sur les modèles pris en charge dans Amazon Bedrock, consultez[Modèles de fondation pris en charge dans Amazon Bedrock](models-supported.md).

# Conditions préalables pour les profils d’inférence
<a name="inference-profiles-prereq"></a>

Avant d’utiliser un profil d’inférence, assurez-vous que les conditions préalables suivantes sont réunies :
+ Votre rôle a accès aux actions de l’API du profil d’inférence. Si la politique [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSgérée est attachée à votre rôle, vous pouvez ignorer cette étape. Sinon, procédez comme suit :

  1. Suivez les étapes décrites dans [Création de politiques IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html) et créez la politique suivante, qui permet à un rôle d’effectuer des actions liées au profil d’inférence et d’exécuter l’inférence de modèle à l’aide de tous les modèles de fondation et profils d’inférence.

------
#### [ JSON ]

****  

     ```
     {
         "Version":"2012-10-17",		 	 	 
         "Statement": [
             {
                 "Effect": "Allow",
                 "Action": [
                     "bedrock:InvokeModel*",
                     "bedrock:CreateInferenceProfile"
                 ],
                 "Resource": [
                     "arn:aws:bedrock:*::foundation-model/*",
                     "arn:aws:bedrock:*:*:inference-profile/*",
                     "arn:aws:bedrock:*:*:application-inference-profile/*"
                 ]
             },
             {
                 "Effect": "Allow",
                 "Action": [
                     "bedrock:GetInferenceProfile",
                     "bedrock:ListInferenceProfiles",
                     "bedrock:DeleteInferenceProfile",
                     "bedrock:TagResource",
                     "bedrock:UntagResource",
                     "bedrock:ListTagsForResource"
                 ],
                 "Resource": [
                     "arn:aws:bedrock:*:*:inference-profile/*",
                     "arn:aws:bedrock:*:*:application-inference-profile/*"
                 ]
             }
         ]
     }
     ```

------

     (Facultatif) Vous pouvez restreindre l’accès du rôle des manières suivantes :
     + Pour restreindre les actions d’API que le rôle peut effectuer, modifiez la liste du champ `Action` pour qu’il ne contienne que les [opérations d’API](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) auxquelles vous souhaitez autoriser l’accès.
     + Pour restreindre l’accès du rôle à des profils d’inférence spécifiques, modifiez la liste `Resource` pour qu’elle ne contienne que les [profils d’inférence](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) et les modèles de fondation auxquels vous souhaitez autoriser l’accès. Les profils d’inférence définis par le système commencent par `inference-profile` et les profils d’inférence d’application commencent par `application-inference-profile`.
**Important**  
Lorsque vous spécifiez un profil d’inférence dans le champ `Resource` de la première instruction, vous devez également spécifier le modèle de fondation dans chaque région qui lui est associée.
     + Pour restreindre l’accès des utilisateurs afin qu’ils puissent invoquer un modèle de fondation uniquement via un profil d’inférence, ajoutez un champ `Condition` et utilisez la [clé de condition](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) `aws:InferenceProfileArn`. Spécifiez le profil d’inférence sur lequel vous souhaitez filtrer l’accès. Cette condition peut être incluse dans une instruction qui s’applique aux ressources `foundation-model`.
     + Par exemple, vous pouvez associer la politique suivante à un rôle pour lui permettre d'invoquer le Anthropic Claude 3 Haiku modèle uniquement via le profil d'AnthropicClaude 3 Haikuinférence américain dans le compte *111122223333* dans us-west-2 :

------
#### [ JSON ]

****  

       ```
       {
           "Version":"2012-10-17",		 	 	 
           "Statement": [
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-west-2:111122223333:inference-profile/us.anthropic.claude-3-haiku-20240307-v1:0"
                   ]
               },
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                       "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-3-haiku-20240307-v1:0"
                   ],
                   "Condition": {
                       "StringLike": {
                           "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-west-2:111122223333:inference-profile/us.anthropic.claude-3-haiku-20240307-v1:0"
                       }
                   }
               }
           ]
       }
       ```

------
     + Par exemple, vous pouvez associer la politique suivante à un rôle pour lui permettre d’invoquer le modèle Anthropic Claude Sonnet 4 uniquement via le profil d’inférence américain Claude Sonnet 4 du compte 111122223333 dans la région USA Est (Ohio) (us-east-2) :

------
#### [ JSON ]

****  

       ```
       {
           "Version":"2012-10-17",		 	 	 
           "Statement": [
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-2:111122223333:inference-profile/global.anthropic.claude-sonnet-4-20250514-v1:0"
                   ]
               },
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-2::foundation-model/anthropic.claude-sonnet-4-20250514-v1:0",
                       "arn:aws:bedrock:::foundation-model/anthropic.claude-sonnet-4-20250514-v1:0"
                   ],
                   "Condition": {
                       "StringLike": {
                           "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-east-2:111122223333:inference-profile/global.anthropic.claude-sonnet-4-20250514-v1:0"
                       }
                   }
               }
           ]
       }
       ```

------
     + Vous pouvez également restreindre l’utilisation du profil d’inférence global Claude Sonnet 4 en ajoutant un refus explicite avec une condition `StringEquals` qui vérifie que la clé de contexte de la demande `aws:RequestedRegion` est égale à non spécifiée. Parce qu’il correspond à `StringEquals`, le refus remplace toute autorisation et bloque l’acheminement global des demandes d’inférence.

       ```
       {
           "Effect": "Deny",
           "Action": [
               "bedrock:InvokeModel*"
           ],
           "Resource": "*",
           "Condition": {
               "StringEquals": {
                   "aws:RequestedRegion": "unspecified"
               }
           }
       },
       ```

  1. Suivez les étapes décrites dans [Ajout et suppression d’autorisations basées sur l’identité IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) pour associer la politique à un rôle afin d’accorder au rôle les autorisations nécessaires pour consulter et utiliser tous les profils d’inférence.
+ Vous avez demandé l’accès au modèle défini dans le profil d’inférence que vous souhaitez utiliser, dans la région à partir de laquelle vous souhaitez appeler le profil d’inférence.

# Création d’un profil d’inférence d’application
<a name="inference-profiles-create"></a>

Vous pouvez créer un profil d’inférence d’application avec une ou plusieurs régions pour suivre l’utilisation et les coûts lorsque vous invoquez un modèle.
+ Pour créer un profil d’inférence d’application pour une région, spécifiez un modèle de fondation. L’utilisation et les coûts des demandes adressées à cette région à l’aide de ce modèle feront l’objet d’un suivi.
+ Pour créer un profil d’inférence d’application pour plusieurs régions, spécifiez un profil d’inférence inter-régions (défini par le système). Le profil d’inférence acheminera les demandes vers les régions définies dans le profil d’inférence interrégional (défini par le système) que vous choisissez. L’utilisation et les coûts des demandes adressées aux régions dans le profil d’inférence feront l’objet d’un suivi.

Actuellement, vous ne pouvez créer un profil d’inférence qu’à l’aide de l’API Amazon Bedrock.

Pour créer un profil d'inférence, envoyez une [CreateInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateInferenceProfile.html)demande avec un point de terminaison du [plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Les champs suivants sont obligatoires :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| inferenceProfileName | Pour spécifier un nom pour le profil d’inférence. | 
| modelSource | Pour spécifier le modèle de fondation ou le profil d’inférence interrégional (défini par le système) qui définit le modèle et les régions pour lesquels vous souhaitez suivre les coûts et l’utilisation. | 

Les champs suivants sont facultatifs :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| description | Pour fournir une description du profil d’inférence. | 
| tags | Pour associer des balises au profil d’inférence. Pour plus d'informations, consultez la section [Organisation [Balisage des ressources Amazon Bedrock](tagging.md) et suivi des coûts à l'aide des balises de répartition des AWS coûts](https://docs.aws.amazon.com//awsaccountbilling/latest/aboutv2/cost-alloc-tags.html). | 
| clientRequestToken | Pour garantir que la demande d’API n’est exécutée qu’une seule fois. Pour plus d’informations, consultez [Garantie de l’idempotence](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

La réponse renvoie un `inferenceProfileArn` qui peut être utilisé dans d’autres actions liées au profil d’inférence et qui peut être utilisé avec l’invocation de modèles et les ressources Amazon Bedrock.

# Modification des balises d’un profil d’inférence d’application
<a name="inference-profiles-modify"></a>

Après avoir créé un profil d’inférence d’application, vous pouvez toujours gérer les balises via l’API Amazon Bedrock en soumettant une demande [TagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_TagResource.html) ou [UntagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UntagResource.html) avec un [point de terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et en spécifiant l’ARN du profil d’inférence de l’application dans le champ `resourceArn`. Pour plus d’informations sur le balisage, consultez [Balisage des ressources Amazon Bedrock](tagging.md).

# Affichage des informations concernant un profil d’inférence
<a name="inference-profiles-view"></a>

Vous pouvez consulter les informations relatives aux profils d’inférence interrégionaux ou aux profils d’inférence d’applications que vous avez créés. Pour découvrir comment afficher les informations relatives à un profil d’inférence, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour afficher les informations relatives à un profil d’inférence interrégional (défini par le système)**

1. Connectez-vous à la AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ensuite, ouvrez la console Amazon Bedrock à l’adresse [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Sélectionnez **Inférence interrégionale** dans le panneau de navigation de gauche. Ensuite, dans **Inférence interrégionale**, choisissez un profil d’inférence.

1. Consultez les détails du profil d’inférence dans la section **Détails du profil d’inférence** et les régions qu’il englobe dans la section **Modèles**.

**Note**  
Vous ne pouvez pas afficher les profils d’inférence des applications dans la console Amazon Bedrock.

------
#### [ API ]

Pour obtenir des informations sur un profil d’inférence, envoyez une demande [GetInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetInferenceProfile.html) avec un [point de terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et spécifiez l’Amazon Resource Name (ARN) ou l’ID du profil d’inférence dans le champ `inferenceProfileIdentifier`.

Pour répertorier les informations relatives aux profils d’inférence que vous pouvez utiliser, envoyez une demande [ListInferenceProfiles](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListInferenceProfiles.html) avec un [point de terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Vous pouvez préciser les paramètres facultatifs suivants :


****  

| Champ | Description abrégée | 
| --- | --- | 
| maxResults | Nombre maximum de résultats à renvoyer en réponse. | 
| nextToken | Si le nombre de résultats est supérieur à ce que vous avez spécifié dans le champ maxResults, la réponse renvoie une valeur nextToken. Pour voir le prochain lot de résultats, envoyez la valeur nextToken dans une autre demande. | 

------

# Utilisation d’un profil d’inférence lors de l’invocation du modèle
<a name="inference-profiles-use"></a>

Vous pouvez utiliser un profil d’inférence interrégional à la place d’un modèle de fondation pour acheminer les demandes vers plusieurs régions. Pour suivre les coûts et l’utilisation d’un modèle, dans une ou plusieurs régions, vous pouvez utiliser un profil d’inférence d’application. Pour savoir comment utiliser un profil d’inférence lors de l’exécution d’une inférence de modèle, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

Pour utiliser un profil d’inférence avec une fonctionnalité qui le prend en charge, procédez comme suit :

1. Connectez-vous à la AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ensuite, ouvrez la console Amazon Bedrock à l’adresse [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Accédez à la page de la fonctionnalité pour laquelle vous souhaitez utiliser un profil d’inférence. Par exemple, choisissez **Terrain de jeu Discussion/Texte** dans le volet de navigation de gauche.

1. Choisissez **Sélectionner un modèle**, puis choisissez le modèle. Par exemple, choisissez **Amazon** puis **Nova Premier**.

1. Sous **Inférence**, sélectionnez **Profils d’inférence** dans le menu déroulant.

1. Sélectionnez le profil d’inférence à utiliser (par exemple, **US Nova Premier**), puis choisissez **Appliquer**.

------
#### [ API ]

Vous pouvez utiliser un profil d’inférence lorsque vous exécutez une inférence à partir de n’importe quelle région qui y est incluse avec les opérations d’API suivantes :
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) ou [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) : pour utiliser un profil d’inférence lors de l’invocation d’un modèle, suivez les étapes décrites dans [Soumettez une seule invite avec InvokeModel](inference-invoke.md) et spécifiez l’Amazon Resource Name (ARN) du profil d’inférence `modelId`. Pour un exemple, consultez [Utilisation d’un profil d’inférence lors de l’invocation du modèle](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html#API_runtime_InvokeModel_Example_5).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html) : pour utiliser un profil d’inférence lors de l’invocation d’un modèle avec l’API Converse, suivez les étapes décrites dans [Mener une conversation avec les opérations d’API Converse](conversation-inference.md) et spécifiez l’ARN du profil d’inférence `modelId`. Pour un exemple, consultez [Utilisation d’un profil d’inférence dans une conversation](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html#API_runtime_Converse_Example_5).
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) : pour utiliser un profil d’inférence lors de la génération de réponses à partir des résultats d’une requête dans une base de connaissances, suivez les étapes indiquées dans l’onglet API dans [Test de votre base de connaissances avec des requêtes et des réponses](knowledge-base-test.md) et spécifiez l’ARN du profil d’inférence dans le champ `modelArn`. Pour plus d’informations, consultez [Utiliser un profil d’inférence pour générer une réponse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html#API_agent-runtime_RetrieveAndGenerate_Example_3).
+ [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html) : pour soumettre un profil d’inférence pour l’évaluation des modèles, suivez les étapes indiquées dans l’onglet API dans [Démarrage d’une évaluation des modèles automatique dans Amazon Bedrock](model-evaluation-jobs-management-create.md) et spécifiez l’ARN du profil d’inférence dans le champ `modelIdentifier`.
+ [CreatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePrompt.html) : pour utiliser un profil d’inférence lors de la génération d’une réponse à une invite que vous créez dans la gestion des invites, suivez les étapes indiquées dans l’onglet API dans [Création d’une invite à l’aide de la gestion des invites](prompt-management-create.md) et spécifiez l’ARN du profil d’inférence dans le champ `modelId`.
+ [CreateFlow](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateFlow.html) : pour utiliser un profil d’inférence lors de la génération d’une réponse à une invite en ligne que vous définissez dans un nœud d’invite d’un flux, suivez les étapes décrites dans l’onglet API dans [Création et conception d’un flux dans Amazon Bedrock](flows-create.md). Lors de la définition du [nœud d’invite](flows-nodes.md#flows-nodes-prompt), spécifiez l’ARN du profil d’inférence dans le champ `modelId`.
+ [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) : pour utiliser un profil d’inférence lors de l’analyse d’informations non textuelles dans une source de données, suivez les étapes décrites dans la section API dans [Options d’analyse structurée pour votre source de données](kb-advanced-parsing.md) et spécifiez l’ARN du profil d’inférence dans le champ `modelArn`.

**Note**  
Si vous utilisez un profil d’inférence interrégional (défini par le système), vous pouvez utiliser l’ARN ou l’ID du profil d’inférence.

------

# Suppression d’un profil d’inférence d’application
<a name="inference-profiles-delete"></a>

Si vous n’avez plus besoin d’une application, vous pouvez la supprimer. Vous ne pouvez supprimer des profils d’inférence que via l’API Amazon Bedrock.

Pour supprimer un profil d’inférence, envoyez une demande [DeleteInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteInferenceProfiles.html) avec un [point de terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et spécifiez l’Amazon Resource Name (ARN) ou l’ID du profil de référence dans le champ `inferenceProflieIdentifier`.

# Augmentez la capacité d'invocation des modèles grâce au débit provisionné dans Amazon Bedrock
<a name="prov-throughput"></a>

Le **débit** fait référence au nombre et au taux d'entrées et de sorties qu'un modèle traite et renvoie. Vous pouvez acheter le **débit provisionné** pour fournir un niveau de débit supérieur à un modèle à un coût fixe. Si vous avez personnalisé un modèle, vous devez acheter Provisioned Throughput pour pouvoir l'utiliser.

Vous êtes facturé à l'heure pour le débit provisionné que vous achetez. Pour obtenir des informations détaillées sur les tarifs, consultez les [tarifs d'Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Le prix par heure dépend des facteurs suivants :

1. Le modèle que vous choisissez (pour les modèles personnalisés, le prix est le même que celui du modèle de base à partir duquel il a été personnalisé).

1. Le nombre d'unités de modèle (MUs) que vous spécifiez pour le débit provisionné. Une MU fournit un niveau de débit spécifique pour le modèle spécifié. Le niveau de débit d'une MU spécifie les éléments suivants :
   + Le nombre de jetons d'entrée qu'une MU peut traiter pour toutes les demandes en une minute. 
   + Le nombre de jetons de sortie qu'une MU peut générer pour toutes les demandes en une minute.
**Note**  
Pour plus d'informations sur les spécifications d'une UM, le prix par UM et pour demander des augmentations de limites, contactez votre Compte AWS responsable.

1. Durée pendant laquelle vous vous engagez à conserver le débit provisionné. Plus la durée d'engagement est longue, plus le prix horaire est réduit. Vous pouvez choisir entre les niveaux d'engagement suivants :
   + Aucun engagement : vous pouvez supprimer le débit provisionné à tout moment.
   + 1 mois : vous ne pouvez pas supprimer le débit provisionné avant la fin de la période d'engagement d'un mois.
   + 6 mois : vous ne pouvez pas supprimer le débit provisionné avant la fin de la période d'engagement de six mois.
**Note**  
La facturation se poursuit jusqu'à ce que vous supprimiez le débit provisionné.

Les étapes suivantes décrivent le processus de configuration et d'utilisation du débit provisionné.

1. Déterminez le nombre d'unités MUs que vous souhaitez acheter pour un débit provisionné et la durée pendant laquelle vous souhaitez vous engager à utiliser le débit provisionné.

1. Achetez un débit provisionné pour un modèle de base ou personnalisé.

1. Une fois le modèle provisionné créé, vous pouvez l'utiliser pour [exécuter l'inférence du modèle](inference.md).

**Topics**
+ [Région et modèles pris en charge pour le débit provisionné](prov-thru-supported.md)
+ [Conditions préalables pour le débit provisionné](prov-thru-prereq.md)
+ [Acheter un débit provisionné pour un modèle Amazon Bedrock](prov-thru-purchase.md)
+ [Afficher les informations relatives à un débit provisionné](prov-thru-info.md)
+ [Modifier un débit provisionné](prov-thru-edit.md)
+ [Utiliser un débit provisionné avec une ressource Amazon Bedrock](prov-thru-use.md)
+ [Supprimer un débit provisionné ou annuler le renouvellement automatique](prov-thru-delete.md)
+ [Exemples de code pour le débit provisionné](prov-thru-code-examples.md)

# Région et modèles pris en charge pour le débit provisionné
<a name="prov-thru-supported"></a>

Si vous achetez Provisioned Throughput via l'API Amazon Bedrock, vous devez spécifier une variante contextuelle d'Amazon Bedrock FMs pour l'ID du modèle.

**Note**  
Le débit provisionné est pris en charge dans AWS GovCloud (ouest des États-Unis) uniquement pour les modèles personnalisés avec un achat sans engagement. Utilisez l’ID d’un modèle personnalisé lors de l’achat de débit provisionné pour celui-ci.

Le tableau suivant indique les modèles pour lesquels vous pouvez acheter le débit provisionné, l'ID du modèle à utiliser lors de l'achat du débit provisionné et le débit provisionné Régions AWS dans lequel vous pouvez acheter le débit provisionné pour le modèle.


| Fournisseur | Modèle | ID du modèle | Support du modèle à région unique | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0:256 k |  us-east-1  | 
| Amazon | Nova Canvas | amazon. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazon. nova-lite-v1:40:24 km |  us-east-1  | 
| Amazon | Nova Lite | amazon. nova-lite-v1:30:300 km |  us-east-1  | 
| Amazon | Nova Micro | amazon. nova-micro-v1:40:128 km |  us-east-1  | 
| Amazon | Nova Micro | amazon. nova-micro-v1:40:24 km |  us-east-1  | 
| Amazon | Nova Pro | amazon. nova-pro-v1:40:24 km |  us-east-1  | 
| Amazon | Nova Pro | amazon. nova-pro-v1:30:300 km |  us-east-1  | 
| Amazon | Titan Embeddings G1 - Text | amazon. titan-embed-text-v1:28 km |  us-east-1 us-west-2  | 
| Amazon | Titan Image Generator G1 v2 | amazon. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazon. titan-embed-image-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:0:100k |  us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:0:18k |  us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:1:18k |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v 2:1:200 k |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  ap-southeast-2 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v 1:40:48 k |  ap-south-1 ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:0:200 k |  ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:40:28 k |  ap-south-1 ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Sonnet de Claude 3.5 | anthropic.claude-3-5-sonnet-20240620-v 1:40:18 k |  us-west-2  | 
| Anthropic | Sonnet de Claude 3.5 | anthropic.claude-3-5-sonnet-20240620-v 1:0:200 k |  us-west-2  | 
| Anthropic | Sonnet de Claude 3.5 | anthropic.claude-3-5-sonnet-20240620-v 1:40:51 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:40:18 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:0:200 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:40:51 k |  us-west-2  | 
| Anthropic | Claude Instant | anthropique. claude-instant-v1:24:100 km |  us-east-1 us-west-2  | 
| Cohere | Embed version anglaise | cohérer. embed-english-v3:0:512 |  ca-central-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Cohere | Embed version multilingue | cohérer. embed-multilingual-v3:0:512 |  ca-central-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Meta | Llama 3.1 70B Instruct | b-instruct-vmeta.llama3-1-70 1:10:128 k |  us-west-2  | 
| Meta | Llama 3.1 8B Instruct | b-instruct-vmeta.llama3-1-8 1:10:128 k |  us-west-2  | 
| Meta | Llama 3.2 11B Instruct | b-instruct-vmeta.llama3-2-11 10:128 k |  us-west-2  | 
| Meta | Llama 3.2 1B Instruct | b-instruct-vmeta.llama3-2-1 1:0:128 k |  us-west-2  | 
| Meta | Llama 3.2 3B Instruct | b-instruct-vmeta.llama3-2-3 1:0:128 k |  us-west-2  | 
| Meta | Llama 3.2 90B Instruct | b-instruct-vmeta.llama3-2-90 1:10:128 k |  us-west-2  | 

**Note**  
Les modèles suivants ne sont pas compatibles avec les achats sans engagement pour le modèle de base :  
Titan Image Generator G1 V1
Titan Image Generator G1 V2

# Conditions préalables pour le débit provisionné
<a name="prov-thru-prereq"></a>

Avant de pouvoir acheter et gérer le débit provisionné, vous devez remplir les conditions préalables suivantes :

1. [Demandez l'accès au ou aux modèles](model-access.md) pour lesquels vous souhaitez acheter Provisioned Throughput. Une fois l'accès accordé, vous pouvez acheter du débit provisionné pour le modèle de base et tous les modèles personnalisés à partir de celui-ci.

1. Assurez-vous que votre rôle IAM a accès aux actions de l'API Provisioned Throughput. Si la politique [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSgérée est attachée à votre rôle, vous pouvez ignorer cette étape. Sinon, procédez comme suit :

   1. Suivez les étapes décrites dans la [section Création de politiques IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html) et créez la politique suivante, qui permet à un rôle de créer un débit provisionné pour tous les modèles de base et personnalisés.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Sid": "PermissionsForProvisionedThroughput",
                  "Effect": "Allow",
                  "Action": [
                      "bedrock:GetFoundationModel",
                      "bedrock:ListFoundationModels",
                      "bedrock:GetCustomModel",
                      "bedrock:ListCustomModels",
                      "bedrock:InvokeModel",
                      "bedrock:InvokeModelWithResponseStream",
                      "bedrock:ListTagsForResource",
                      "bedrock:UntagResource",
                      "bedrock:TagResource",
                      "bedrock:CreateProvisionedModelThroughput",
                      "bedrock:GetProvisionedModelThroughput",
                      "bedrock:ListProvisionedModelThroughputs",
                      "bedrock:UpdateProvisionedModelThroughput",
                      "bedrock:DeleteProvisionedModelThroughput"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------
**Note**  
Si vous utilisez le débit provisionné avec inférence entre régions, vous aurez peut-être besoin d'autorisations supplémentaires. Pour en savoir plus, consultez [Augmentez le débit grâce à l’inférence entre régions](cross-region-inference.md).

      (Facultatif) Vous pouvez restreindre l’accès du rôle des manières suivantes :
      + Pour restreindre les actions d’API que le rôle peut effectuer, modifiez la liste du champ `Action` pour qu’il ne contienne que les [opérations d’API](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) auxquelles vous souhaitez autoriser l’accès.
      + Après avoir créé un modèle provisionné, vous pouvez limiter la capacité du rôle à exécuter une demande d'API avec le modèle provisionné en modifiant la `Resource` liste pour ne contenir que les [modèles provisionnés auxquels](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) vous souhaitez autoriser l'accès. Pour obtenir un exemple, consultez [Autoriser les utilisateurs à invoquer un modèle provisionné](security_iam_id-based-policy-examples.md#security_iam_id-based-policy-examples-perform-actions-pt).
      + Pour limiter la capacité d'un rôle à créer des modèles provisionnés à partir de modèles personnalisés ou de fondations spécifiques, modifiez la `Resource` liste pour qu'elle contienne uniquement les [modèles de base et personnalisés](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) auxquels vous souhaitez autoriser l'accès.

   1. Suivez les étapes décrites dans la [section Ajouter et supprimer des autorisations d'identité IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) pour associer la politique à un rôle afin d'accorder les autorisations de rôle.

1. Si vous achetez Provisioned Throughput pour un modèle personnalisé chiffré à l'aide d'une AWS KMS clé gérée par le client, votre rôle IAM doit disposer des autorisations nécessaires pour déchiffrer la clé. Vous pouvez utiliser le modèle à l'adresse[Comment créer une clé gérée par le client et comment y associer une stratégie de clé](encryption-custom-job.md#encryption-key-policy). Pour des autorisations minimales, vous ne pouvez utiliser que la déclaration *Permissions for custom model users* de politique.

# Acheter un débit provisionné pour un modèle Amazon Bedrock
<a name="prov-thru-purchase"></a>

Amazon Bedrock propose deux types de débit provisionné : par jetons et par unités modèles. Reportez-vous aux instructions suivantes pour connaître le type de débit provisionné que vous souhaitez acheter.

Pour en savoir plus sur les différences entre les deux types de débit provisionné, consultez. [Augmentez la capacité d'invocation des modèles grâce au débit provisionné dans Amazon Bedrock](prov-throughput.md)

## Débit provisionné par unités modèles
<a name="prov-thru-purchase-MUs"></a>

Lorsque vous achetez un débit provisionné par unités de modèle pour un modèle, vous spécifiez le niveau d'engagement pour celui-ci et le nombre d'unités de modèle (MUs) à allouer. Pour les quotas MU, consultez la section [Points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) dans le. Références générales AWS Avant de pouvoir acheter un débit provisionné (avec ou sans engagement), vous devez d'abord vous rendre au [centre de AWS support](https://console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase) MUs pour demander que votre compte soit réparti entre les débits provisionnés. Une fois votre demande acceptée, vous pouvez acheter un débit provisionné.

**Note**  
Après avoir acheté le débit provisionné, s'il est associé à un modèle personnalisé, vous pouvez modifier le modèle en spécifiant l'une des options suivantes :  
Le modèle de base à partir duquel le modèle personnalisé a été personnalisé
Un autre modèle personnalisé qui a été personnalisé à partir du même modèle de base que le modèle personnalisé
Vous ne pouvez modifier le modèle associé que pour les débits provisionnés associés à un modèle personnalisé.

Pour savoir comment acheter du débit provisionné pour un modèle, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

------
#### [ Console ]

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Sélectionnez **Débit provisionné** dans le volet de navigation de gauche.

1. Dans la section **Débit provisionné, choisissez Acheter un débit** **provisionné**.

1. Pour la section **Détails du débit provisionné**, procédez comme suit :

   1. Dans le champ **Nom du débit provisionné**, entrez le nom du débit provisionné.

   1. Sous **Sélectionner un modèle**, sélectionnez un fournisseur de modèles de base ou une catégorie de modèles personnalisée. Sélectionnez ensuite le modèle pour lequel vous souhaitez provisionner le débit.
**Note**  
Pour connaître les modèles de base pour lesquels vous pouvez acheter du débit provisionné sans engagement, consultez la documentation des modèles pris en charge.  
Dans la AWS GovCloud (US) région, vous ne pouvez acheter du débit provisionné que pour des modèles personnalisés sans engagement.

   1. (Facultatif) Pour associer des balises à votre débit provisionné, développez la section **Tags** et choisissez **Ajouter une nouvelle balise**. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md).

1. Pour le **mode de provisionnement**, sélectionnez **Par unités de modèle**

1. Pour la section **Durée de l'engagement et unités modèles**, procédez comme suit :

   1. Dans la section **Sélectionner la durée d'engagement**, sélectionnez la durée pendant laquelle vous souhaitez vous engager à utiliser le débit provisionné.

   1. Dans le champ **Unités du modèle**, entrez le nombre souhaité d'unités du modèle (MUs). Si vous fournissez un modèle avec engagement, vous devez d'abord vous rendre au [centre d'AWSassistance](https://console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase) pour demander une augmentation du nombre de modèles MUs que vous pouvez acheter.

1. Choisissez **Acheter du débit provisionné**.

1. Consultez la note qui apparaît et confirmez la durée et le prix de l’engagement en cochant la case correspondante. Choisissez ensuite **Confirmer l’achat**.

1. La console affiche la page de présentation du **débit provisionné**. **L'**état** du débit provisionné dans la table Débit provisionné devient Création.** Lorsque le débit provisionné est terminé d'être créé, le **statut** devient **En** service. Si la mise à jour échoue, le **statut** devient **Failed**.

------
#### [ API ]

Pour acheter un débit provisionné, envoyez une [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)demande avec un point de terminaison du plan de [contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Pour en savoir plus sur le contenu du corps de la demande et les paramètres que vous devez fournir pour créer un débit provisionné par unités de modèle, consultez [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)le manuel *Amazon Bedrock* API Reference.

**Note**  
Pour connaître les modèles de base pour lesquels vous pouvez acheter du débit provisionné sans engagement, consultez la documentation des modèles pris en charge.  
Dans la AWS GovCloud (US) région, vous ne pouvez acheter du débit provisionné que pour des modèles personnalisés sans engagement.

La réponse renvoie un `provisionedModelArn` que vous pouvez utiliser comme [inférence `modelId` dans le modèle](inference.md). Pour vérifier si le débit provisionné est prêt à être utilisé, envoyez une [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)demande et vérifiez que l'état est bien le cas. `InService` Si la mise à jour échoue, son statut sera `Failed` le même et la [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)réponse contiendra un`failureMessage`.

[Consulter des exemples de code](prov-thru-code-examples.md)

------

# Afficher les informations relatives à un débit provisionné
<a name="prov-thru-info"></a>

Pour savoir comment consulter les informations relatives à un débit provisionné que vous avez acheté, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

------
#### [ Console ]

**Pour afficher les informations relatives à un débit provisionné**

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Sélectionnez **Provisioned Throughput dans** le volet de navigation de gauche.

1. Dans la section **Débit provisionné, sélectionnez un débit** provisionné.

1. **Consultez les détails du débit provisionné dans la section **Vue d'ensemble du débit provisionné** et les balises associées à votre débit provisionné dans la section Tags.**

------
#### [ API ]

Pour récupérer des informations sur un débit provisionné spécifique, envoyez une [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)demande avec un point de terminaison du plan de [contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Spécifiez le nom du débit provisionné ou son ARN en tant que. `provisionedModelId`

Pour répertorier les informations relatives à tous les débits provisionnés d'un compte, envoyez une [ListProvisionedModelThroughputs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListProvisionedModelThroughputs.html)demande à un point de terminaison du plan de [contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Pour contrôler le nombre de résultats renvoyés, vous pouvez spécifier les paramètres facultatifs suivants :


****  

| Champ | Description abrégée | 
| --- | --- | 
| maxResults | Nombre maximum de résultats à renvoyer en réponse. | 
| nextToken | S'il y a plus de résultats que le nombre indiqué dans le maxResults champ, la réponse renvoie une nextToken valeur. Pour voir le prochain lot de résultats, envoyez la nextToken valeur dans une autre demande. | 

Pour les autres paramètres facultatifs que vous pouvez spécifier pour trier et filtrer les résultats, consultez [ListProvisionedModelThroughputs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListProvisionedModelThroughputs.html).

Pour répertorier toutes les balises d'un débit provisionné, envoyez une [ListTagsForResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListTagsForResource.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock et incluez](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) le nom de ressource Amazon (ARN) du débit provisionné.

[Voir des exemples de code](prov-thru-code-examples.md)

------

# Modifier un débit provisionné
<a name="prov-thru-edit"></a>

Les aspects d'un débit provisionné que vous pouvez modifier après l'achat dépendent du mode de provisionnement. Pour les débits provisionnés par unités de modèle, vous pouvez modifier uniquement le nom et les balises de votre débit provisionné, ainsi que le modèle s'il s'agit d'un modèle personnalisé.

Avec les débits provisionnés par jetons, vous disposez d'un plus grand nombre d'options, notamment la modification du nombre de jetons d'entrée et de sortie par minute pour votre débit provisionné.

Reportez-vous aux sections suivantes pour en savoir plus sur la modification du type de débit provisionné que vous souhaitez modifier.

## Modifier un débit provisionné par unités de modèle
<a name="prov-thru-edit-MUs"></a>

Vous pouvez modifier le nom ou les balises d'un débit provisionné existant.

Les restrictions suivantes s'appliquent à la modification du modèle auquel le débit provisionné est associé :
+ Vous ne pouvez pas modifier le modèle d'un débit provisionné associé à un modèle de base.
+ Si le débit provisionné est associé à un modèle personnalisé, vous pouvez modifier l'association avec le modèle de base à partir duquel il est personnalisé ou vers un autre modèle personnalisé dérivé du même modèle de base. 

Pendant la mise à jour d'un débit provisionné, vous pouvez effectuer des inférences à l'aide du débit provisionné sans perturber le trafic continu provenant de vos clients finaux. Si vous avez modifié le modèle auquel le débit provisionné est associé, vous pouvez recevoir des données de l'ancien modèle jusqu'à ce que la mise à jour soit complètement déployée.

Pour savoir comment modifier un débit provisionné, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

------
#### [ Console ]

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Sélectionnez **Débit provisionné** dans le volet de navigation de gauche.

1. Dans la section **Débit provisionné, sélectionnez un débit** provisionné.

1. Choisissez **Modifier**. Vous pouvez modifier les champs suivants :
   + **Nom du débit provisionné** : modifiez le nom du débit provisionné.
   + **Sélectionnez un modèle** — Si le débit provisionné est associé à un modèle personnalisé, vous pouvez modifier le modèle associé.

1. Vous pouvez modifier les balises associées à votre débit provisionné dans la section **Balises**. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md).

1. Pour enregistrer vos modifications, choisissez **Enregistrer les modifications**.

1. La console affiche la page de présentation du **débit provisionné**. **L'**état** du débit provisionné dans le tableau du débit provisionné devient Mise à jour.** Lorsque le débit provisionné est terminé d'être mis à jour, le **statut** devient **En** service. Si la mise à jour échoue, le **statut** devient **Failed**.

------
#### [ API ]

Pour modifier un débit provisionné, envoyez une [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)demande avec un point de terminaison du plan de [contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Pour en savoir plus sur le corps de la requête et les paramètres que vous devez fournir, consultez le [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)manuel *Amazon Bedrock API Reference*.

Si l'action aboutit, la réponse renvoie une réponse d'état HTTP 200. Pour vérifier si le débit provisionné est prêt à être utilisé, envoyez une [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)demande et vérifiez que l'état est bien le cas. `InService` Vous ne pouvez pas mettre à jour ou supprimer un débit provisionné tant que son état est défini. `Updating` Si la mise à jour échoue, son statut sera `Failed` le même et la [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)réponse contiendra un`failureMessage`.

Pour ajouter des balises à un débit provisionné, envoyez une [TagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_TagResource.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et incluez le nom de ressource Amazon (ARN) du débit provisionné. Le corps de la demande contient un champ `tags`, qui est un objet contenant une paire clé-valeur que vous spécifiez pour chaque balise.

Pour supprimer des balises d'un débit provisionné, envoyez une [UntagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UntagResource.html)demande avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) et incluez le nom de ressource Amazon (ARN) du débit provisionné. Le paramètre de demande `tagKeys` est une liste contenant les clés des balises que vous souhaitez supprimer.

[Consulter des exemples de code](prov-thru-code-examples.md)

------

# Utiliser un débit provisionné avec une ressource Amazon Bedrock
<a name="prov-thru-use"></a>

Après avoir acheté un débit provisionné, vous pouvez l'utiliser avec les fonctionnalités suivantes :
+ **Inférence du modèle** : vous pouvez tester le débit provisionné dans une console de jeu Amazon Bedrock. Lorsque vous êtes prêt à déployer le débit provisionné, configurez votre application pour qu'elle invoque le modèle provisionné. Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour utiliser un débit provisionné dans le terrain de jeu de la console Amazon Bedrock**

  1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

  1. Dans le volet de navigation de gauche, sélectionnez **Chat**, **Texte** ou **Image** sous **Playgrounds**, selon votre cas d'utilisation.

  1. Choisissez **Sélectionner le modèle**.

  1. Dans le **1. Colonne Catégorie**, sélectionnez un fournisseur ou une catégorie de modèle personnalisée. Ensuite, dans le **2. Colonne Modèle**, sélectionnez le modèle auquel votre débit provisionné est associé.

  1. Dans le **3. Colonne Débit**, sélectionnez votre débit provisionné.

  1. Cliquez sur **Appliquer**.

  Pour savoir comment utiliser les aires de jeu Amazon Bedrock, consultez. [Génération de réponses dans la console à l’aide de terrains de jeu](playgrounds.md)

------
#### [ API ]

  Pour exécuter une inférence à l'aide d'un débit provisionné, envoyez une demande [InvokeModel[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), une [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ou une requête [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)avec un point de terminaison [Amazon](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt) Bedrock. Spécifiez l’ARN du modèle provisionné en tant que paramètre `modelId`. Pour connaître les exigences relatives au corps de la demande pour les différents modèles, voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md).

  [Consulter des exemples de code](prov-thru-code-examples.md)

------
+ **Associer un débit provisionné à un alias d'agent** : vous pouvez associer un débit provisionné lorsque vous [créez](agents-deploy.md) ou mettez [à jour](agents-alias-edit.md) un alias d'agent. Dans la console Amazon Bedrock, vous choisissez le débit provisionné lorsque vous configurez l’alias ou lorsque vous le modifiez. Dans l'API Amazon Bedrock, vous spécifiez `provisionedThroughput` le `routingConfiguration` moment où vous envoyez une demande [CreateAgentAlias](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgentAlias.html)ou [UpdateAgentAlias](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateAgentAlias.html);.

# Supprimer un débit provisionné ou annuler le renouvellement automatique
<a name="prov-thru-delete"></a>

Votre débit provisionné sera automatiquement renouvelé à la fin de chaque période d'engagement, en conservant vos configurations actuelles de jetons d'entrée et de sortie.

Si vous ne souhaitez pas conserver votre débit provisionné, vous pouvez le supprimer ou, dans le cas du débit provisionné par jetons, annuler le renouvellement automatique pour empêcher son renouvellement à la fin de la période en cours.

## Suppression d'un débit provisionné
<a name="prov-thru-delete-del"></a>

Lorsque vous supprimez un débit provisionné, vous ne pourrez plus invoquer le modèle au niveau de débit pour lequel vous l'avez acheté. Si vous supprimez un débit provisionné associé à un modèle personnalisé, le modèle personnalisé n'est pas supprimé. Pour savoir comment supprimer un modèle personnalisé, consultez[Suppression d’un modèle personnalisé](model-customization-delete.md).

**Note**  
Vous ne pouvez pas supprimer un débit provisionné par unités modèles avec engagement avant la fin de la durée d'engagement.

Pour savoir comment supprimer un débit provisionné, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

------
#### [ Console ]

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Sélectionnez **Débit provisionné** dans le volet de navigation de gauche.

1. Dans la section **Débit provisionné, sélectionnez un débit** provisionné.

1. Choisissez **Supprimer** dans le menu déroulant **Actions**.

1. La console affiche un formulaire modal pour vous avertir que la suppression est définitive. Choisissez **Confirmer** pour continuer.

1. Le débit provisionné est immédiatement supprimé.

------
#### [ API ]

Pour supprimer un débit provisionné, envoyez une [DeleteProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteProvisionedModelThroughput.html)demande avec un point de terminaison du plan de [contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Spécifiez le nom du débit provisionné ou son ARN en tant que. `provisionedModelId` Si la suppression est réussie, la réponse renvoie un code d'état HTTP 200.

[Consulter des exemples de code](prov-thru-code-examples.md)

------

## Annulation du renouvellement automatique pour un débit provisionné
<a name="prov-thru-delete-cancel-auto-renew"></a>

Pour le débit provisionné par jetons, vous pouvez annuler le renouvellement automatique à tout moment avant la fin de la durée de votre engagement afin d'empêcher le renouvellement automatique d'un débit provisionné.

Si vous annulez le renouvellement automatique, votre débit provisionné restera en service jusqu'à la fin de votre période d'engagement. Vous devrez toujours payer l'intégralité des frais de provision pour votre terme en cours, que vous procédiez à une inférence ou non.

Une fois que vous avez annulé le renouvellement automatique d'un débit provisionné, vous ne pouvez plus apporter de modifications à votre débit provisionné pour le reste de la durée d'engagement.

**Note**  
Le renouvellement automatique ne peut pas être réactivé une fois annulé. Si vous avez besoin d'un débit provisionné après l'expiration de votre mandat actuel, vous devrez acheter un nouveau débit provisionné.

Pour savoir comment annuler le renouvellement automatique d'un débit provisionné par jetons, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

------
#### [ Console ]

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Sélectionnez **Débit provisionné** dans le volet de navigation de gauche.

1. Dans la section **Débit provisionné, sélectionnez un débit** provisionné.

1. Choisissez **Annuler le renouvellement automatique** dans le menu déroulant **Actions**.

1. La console affiche un formulaire modal pour vous avertir que cette action est irréversible. Choisissez **Confirmer** pour continuer.

1. Le débit provisionné restera actif jusqu'à la fin de la durée d'engagement en cours, après quoi il sera automatiquement supprimé.

------
#### [ API ]

Pour annuler le renouvellement automatique pour un débit provisionné, envoyez une [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)demande à un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) avec le `disableAutoRenew` paramètre défini sur. `true` Le débit provisionné restera actif jusqu'à la fin de la durée d'engagement en cours.

[Consulter des exemples de code](prov-thru-code-examples.md)

------

# Exemples de code pour le débit provisionné
<a name="prov-thru-code-examples"></a>

Les exemples de code suivants montrent comment créer un débit provisionné, le gérer et l'invoquer à l'aide du SDK Python AWS CLI et du SDK Python. Vous pouvez créer un débit provisionné à partir d'un modèle de base ou d'un modèle que vous avez déjà personnalisé. Avant de commencer, respectez les prérequis suivants :

**Conditions préalables**

Les exemples suivants utilisent le Amazon Nova Lite modèle, dont l'ID de modèle est`amazon.nova-lite-v1:0:24k`. Si ce n'est pas déjà fait, demandez l'accès au Amazon Nova Lite en suivant les étapes indiquées sur[Gérez l'accès aux modèles à l'aide du SDK et de la CLI](model-access.md#model-access-modify).

Si vous souhaitez acheter Provisioned Throughput pour un modèle de base différent ou un modèle personnalisé, vous devez procéder comme suit :

1. Recherchez l'ID (pour les modèles de base), le nom (pour les modèles personnalisés) ou l'ARN (pour l'un ou l'autre) du modèle en effectuant l'une des opérations suivantes :
   + Si vous achetez un débit provisionné pour un modèle de base, recherchez l'ID ou le nom de ressource Amazon (ARN) d'un modèle qui prend en charge le provisionnement de l'une des manières suivantes :
     + Recherchez la valeur dans le tableau.
     + Envoyez une [ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)demande et spécifiez la `byInferenceType` valeur `PROVISIONED` pour afficher la liste des modèles compatibles avec le provisionnement. Trouvez la valeur dans le `modelArn` champ `modelId` ou.
   + Si vous achetez un débit provisionné pour un modèle personnalisé, recherchez le nom ou le nom de ressource Amazon (ARN) du modèle que vous avez personnalisé de l'une des manières suivantes :
     + Dans la console Amazon Bedrock, choisissez **Modèles personnalisés** dans le volet de navigation de gauche. Recherchez le nom de votre modèle personnalisé dans la liste des **modèles** ou sélectionnez-le et recherchez l'**ARN du modèle** dans les **détails du modèle**.
     + Envoyez une [ListCustomModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListCustomModels.html)demande et trouvez la `modelArn` valeur `modelName` ou la valeur de votre modèle personnalisé dans la réponse.

1. Modifiez `body` la [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)requête dans les exemples ci-dessous pour qu'elle corresponde au format du corps du modèle en la recherchant dans[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md).

Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ AWS CLI ]

1. Envoyez une [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)demande pour créer un débit provisionné sans engagement appelé*MyPT*, en exécutant la commande suivante dans un terminal :

   ```
   aws bedrock create-provisioned-model-throughput \
      --model-units 1 \
      --provisioned-model-name MyPT \
      --model-id amazon.nova-lite-v1:0:24k
   ```

1. La réponse renvoie un `provisioned-model-arn`. Prévoyez un peu de temps pour terminer la création. Pour vérifier son état, envoyez une [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)demande et indiquez le nom ou l'ARN du modèle provisionné sous la forme`provisioned-model-id`, en exécutant la commande suivante :

   ```
   aws bedrock get-provisioned-model-throughput \
       --provisioned-model-id ${provisioned-model-arn}
   ```

1. Exécutez l'inférence avec votre modèle provisionné en envoyant une [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)demande. Indiquez l'ARN du modèle provisionné renvoyé dans la `CreateProvisionedModelThroughput` réponse, sous la forme de`model-id`. La sortie est écrite dans un fichier nommé *output.txt* dans votre dossier actuel.

   ```
   aws bedrock-runtime invoke-model \
       --model-id ${provisioned-model-arn} \
       --body '{
                   "messages": [{
                       "role": "user",
                       "content": [{
                           "text": "Hello"
                       }]
                   }],
                   "inferenceConfig": {
                       "temperature":0.7
                   }
               }' \
       --cli-binary-format raw-in-base64-out \
       output.txt
   ```

1. Envoyez une [DeleteProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteProvisionedModelThroughput.html)demande pour supprimer le débit provisionné à l'aide de la commande suivante. Le débit provisionné ne vous sera plus facturé.

   ```
   aws bedrock delete-provisioned-model-throughput 
     --provisioned-model-id MyPT
   ```

------
#### [ Python (Boto) ]

Les extraits de code suivants vous expliquent comment créer un débit provisionné, obtenir des informations le concernant et appeler le débit provisionné.

1. Pour créer un débit provisionné appelé sans engagement *MyPT* et attribuer l'ARN du débit provisionné à une variable appelée*provisioned\$1model\$1arn*, envoyez la demande suivante : [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)

   ```
   import boto3 
   
   provisioned_model_name = 'MyPT'
   
   bedrock = boto3.client(service_name='bedrock')
   response = bedrock.create_provisioned_model_throughput(
       modelUnits=1,
       provisionedModelName=provisioned_model_name, 
       modelId='amazon.nova-lite-v1:0:24k' 
   )
                           
   provisioned_model_arn = response['provisionedModelArn']
   ```

1. Prévoyez un peu de temps pour terminer la création. Vous pouvez vérifier son statut à l'aide de l'extrait de code suivant. Vous pouvez fournir le nom du débit provisionné ou l'ARN renvoyé par la [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)réponse sous la forme. `provisionedModelId`

   ```
   bedrock.get_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
   ```

1. Exécutez l'inférence avec votre modèle provisionné mis à jour à l'aide de la commande suivante et en utilisant l'ARN du modèle provisionné comme. `modelId`

   ```
   import json
   import logging
   import boto3
   
   from botocore.exceptions import ClientError
   
   
   class ImageError(Exception):
       "Custom exception for errors returned by the model"
   
       def __init__(self, message):
           self.message = message
   
   
   logger = logging.getLogger(__name__)
   logging.basicConfig(level=logging.INFO)
   
   
   def generate_text(model_id, body):
       """
       Generate text using your provisioned custom model.
       Args:
           model_id (str): The model ID to use.
           body (str) : The request body to use.
       Returns:
           response (json): The response from the model.
       """
   
       logger.info(
           "Generating text with your provisioned custom model %s", model_id)
   
       brt = boto3.client(service_name='bedrock-runtime')
   
       accept = "application/json"
       content_type = "application/json"
   
       response = brt.invoke_model(
           body=body, modelId=model_id, accept=accept, contentType=content_type
       )
       response_body = json.loads(response.get("body").read())
   
       finish_reason = response_body.get("error")
   
       if finish_reason is not None:
           raise ImageError(f"Text generation error. Error is {finish_reason}")
   
       logger.info(
           "Successfully generated text with provisioned custom model %s", model_id)
   
       return response_body
   
   
   def main():
       """
       Entrypoint for example.
       """
       try:
           logging.basicConfig(level=logging.INFO,
                               format="%(levelname)s: %(message)s")
   
           model_id = provisioned-model-arn
   
           body = json.dumps({
               "inputText": "what isAWS?"
           })
   
           response_body = generate_text(model_id, body)
           print(f"Input token count: {response_body['inputTextTokenCount']}")
   
           for result in response_body['results']:
               print(f"Token count: {result['tokenCount']}")
               print(f"Output text: {result['outputText']}")
               print(f"Completion reason: {result['completionReason']}")
   
       except ClientError as err:
           message = err.response["Error"]["Message"]
           logger.error("A client error occurred: %s", message)
           print("A client error occured: " +
                 format(message))
       except ImageError as err:
           logger.error(err.message)
           print(err.message)
   
       else:
           print(
               f"Finished generating text with your provisioned custom model {model_id}.")
   
   
   if __name__ == "__main__":
       main()
   ```

1. Supprimez le débit provisionné à l'aide de l'extrait de code suivant. Le débit provisionné ne vous sera plus facturé.

   ```
   bedrock.delete_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
   ```

------

# Quotas pour Amazon Bedrock
<a name="quotas"></a>

Vous Compte AWS disposez de quotas par défaut, anciennement appelés limites, pour Amazon Bedrock. Pour afficher les quotas de service pour Amazon Bedrock, procédez de l’une des manières suivantes :
+ Suivez les étapes décrites dans [Affichage des quotas de service](https://docs.aws.amazon.com/servicequotas/latest/userguide/gs-request-quota.html) et sélectionnez **Amazon Bedrock** comme service.
+ Reportez-vous aux [quotas de service Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) dans les Références générales AWS.

L’inférence de modèle dans Amazon Bedrock est contrôlée par des quotas d’utilisation des jetons. Certains modèles utilisent des jetons à un taux plus élevé. Pour plus d’informations sur ces taux et sur la manière d’optimiser l’utilisation de vos jetons, consultez [Mode de comptabilisation des jetons dans Amazon Bedrock](quotas-token-burndown.md).

Pour maintenir les performances du service et garantir une utilisation appropriée d'Amazon Bedrock, les quotas par défaut attribués à un compte peuvent être mis à jour en fonction de facteurs régionaux, de l'historique des paiements, de l'utilisation frauduleuse ou de l' and/or approbation d'une [demande d'augmentation de quota](quotas-increase.md).

**Topics**
+ [Mode de comptabilisation des jetons dans Amazon Bedrock](quotas-token-burndown.md)
+ [Surveillance de l’utilisation de vos jetons en comptant les jetons avant l’exécution de l’inférence](count-tokens.md)
+ [Demande d’augmentation des quotas Amazon Bedrock](quotas-increase.md)

# Mode de comptabilisation des jetons dans Amazon Bedrock
<a name="quotas-token-burndown"></a>

Lorsque vous exécutez l’inférence de modèle, le nombre de jetons pouvant être traités est soumis à des quotas en fonction du modèle Amazon Bedrock que vous utilisez. Consultez la terminologie suivante relative aux quotas de jetons :


****  

| Durée | Définition | 
| --- | --- | 
| InputTokenCount | La métrique d'exécution d' CloudWatch Amazon Bedrock qui représente le nombre de jetons dans une demande fournie en entrée dans le modèle. | 
| OutputTokenCount | La métrique d'exécution d' CloudWatch Amazon Bedrock qui représente le nombre de jetons générés par le modèle en réponse à une demande. | 
| CacheReadInputTokens | La métrique d'exécution d' CloudWatch Amazon Bedrock qui représente le nombre de jetons d'entrée qui ont été extraits avec succès d'un cache au lieu d'être retraités par le modèle. Cette valeur est 0 si vous n’utilisez pas la [mise en cache des invites](prompt-caching.md). | 
| CacheWriteInputTokens | La métrique d'exécution d' CloudWatch Amazon Bedrock qui représente le nombre de jetons d'entrée qui ont été écrits avec succès dans le cache. Cette valeur est 0 si vous n’utilisez pas la [mise en cache des invites](prompt-caching.md). | 
| Jetons par minute (TPM) | Un quota défini AWS au niveau du modèle sur le nombre de jetons (entrée et sortie inclus) que vous pouvez utiliser en une minute. | 
| Jetons par jour (TDP) | Un quota défini AWS au niveau du modèle sur le nombre de jetons (entrée et sortie inclus) que vous pouvez utiliser en une journée. Par défaut, cette valeur est TPM x 24 x 60. Cependant, les nouveaux Comptes AWS pays ont réduit leurs quotas. | 
| Demandes par minute (RPM) | Un quota défini AWS au niveau du modèle sur le nombre de demandes que vous pouvez envoyer en une minute. | 
| max\$1tokens | Un paramètre que vous fournissez dans votre demande pour définir le nombre maximum de jetons de sortie que le modèle peut générer. | 
| Taux de destruction | Vitesse à laquelle les jetons d’entrée et de sortie sont convertis en quotas de jetons utilisés par le système de limitation. | 

Le taux de combustion des modèles Anthropic Claude version 3.7 et versions ultérieures est **5 fois supérieur à 5 pour les jetons de sortie** (1 jeton de sortie consomme 5 jetons de vos quotas) :

Pour tous les autres modèles, le taux de destruction est de **1:1** (1 jeton de sortie consomme 1 jeton de votre quota).

**Topics**
+ [Compréhension de la gestion des quotas de jetons](#quotas-token-burndown-management)
+ [Compréhension de l’impact du paramètre max\$1tokens](#quotas-token-burndown-max-tokens)
+ [Optimisation du paramètre max\$1tokens](#quotas-token-burndown-max-tokens-optimize)

## Compréhension de la gestion des quotas de jetons
<a name="quotas-token-burndown-management"></a>

Lorsque vous envoyez une demande, les jetons sont déduits de vos quotas TPM et TDP. Les calculs se déroulent selon les étapes suivantes :
+ **Au début de la demande** : en supposant que vous n’avez pas dépassé votre quota RPM, la somme suivante est déduite de vos quotas. La demande est limitée si vous dépassez un quota.

  ```
  Total input tokens + max_tokens
  ```
+ **Pendant le traitement** : le quota consommé par la demande est ajusté périodiquement pour tenir compte du nombre réel de jetons de sortie générés.
+ **À la fin de la demande** : le nombre total de jetons consommés par la demande sera calculé comme suit et tous les jetons non utilisés seront réapprovisionnés selon votre quota :

  ```
  InputTokenCount + CacheWriteInputTokens + (OutputTokenCount x burndown rate)
  ```

  Si vous n’utilisez pas la [mise en cache des invites](prompt-caching.md), `CacheWriteInputTokens` aura pour valeur 0. Les `CacheReadInputTokens` ne contribuent pas à ce calcul.

**Note**  
Vous n’êtes facturé que pour l’utilisation réelle de vos jetons.  
Par exemple, si vous utilisez Anthropic Claude Sonnet 4 et envoyez une demande contenant 1 000 jetons d’entrée et qu’elle génère une réponse équivalente à 100 jetons :  
**1 500 jetons** (1 000 \$1 100 x 5) seront épuisés de vos quotas TPM et TDP.
Vous ne serez facturé que pour **1 100 jetons**.

## Compréhension de l’impact du paramètre max\$1tokens
<a name="quotas-token-burndown-max-tokens"></a>

La valeur `max_tokens` est déduite de votre quota au début de chaque demande. Si vous atteignez les quotas de TPM plus tôt que prévu, essayez de réduire les `max_tokens` pour obtenir une meilleure approximation de la taille de vos résultats.

Les scénarios suivants fournissent des exemples de la façon dont les déductions de quotas auraient fonctionné sur les demandes traitées en utilisant un modèle dont le taux de destruction des jetons de sortie est 5 fois supérieur :

### Scénario 1 : valeur max\$1tokens élevée
<a name="quotas-token-burndown-max-tokens-too-high"></a>

Supposons les paramètres suivants :
+ **InputTokenCount:** 3 000
+ **CacheReadInputTokens:** 4 000
+ **CacheWriteInputTokens:** 1 000
+ **OutputTokenCount:** 1 000
+ **max\$1tokens :** 32 000

Les déductions de quotas suivantes ont lieu :
+ **Déduction initiale lorsque la demande est faite :** 40 000 (= 3 000 \$1 4 000 \$1 1 000 \$1 32 000)
+ **Déduction ajustée finale après génération de la réponse :** 9 000 (= 3 000 \$1 1 000 \$1 1 000 x 5)

Dans ce scénario, moins de demandes simultanées pourraient être effectuées, car le paramètre `max_tokens` était défini à un niveau trop élevé. Cela réduit la simultanéité des demandes, le débit et l’utilisation des quotas, car la capacité du quota TPM serait atteinte rapidement.

### Scénario 2 : valeur max\$1tokens optimisée
<a name="quotas-token-burndown-max-tokens-optimized"></a>

Supposons les paramètres suivants :
+ **InputTokenCount:** 3 000
+ **CacheReadInputTokens:** 4 000
+ **CacheWriteInputTokens:** 1 000
+ **OutputTokenCount:** 1 000
+ **max\$1tokens :** 1 250

Les déductions de quotas suivantes ont lieu :
+ **Déduction initiale lorsque la demande est faite :** 9 250 (= 3 000 \$1 4 000 \$1 1 000 \$1 1 250)
+ **Déduction ajustée finale après génération de la réponse :** 9 000 (= 3 000 \$1 1 000 \$1 1 000 x 5)

Dans ce scénario, le paramètre `max_tokens` a été optimisé, car la déduction initiale n’est que légèrement supérieure à la déduction ajustée finale. Cela a permis d’augmenter la simultanéité des demandes, le débit et l’utilisation des quotas.

## Optimisation du paramètre max\$1tokens
<a name="quotas-token-burndown-max-tokens-optimize"></a>

En optimisant le paramètre `max_tokens`, vous pouvez utiliser efficacement la capacité de quota qui vous est allouée. Pour vous aider à prendre une décision éclairée concernant ce paramètre, vous pouvez utiliser Amazon CloudWatch, qui collecte automatiquement les statistiques des AWS services, y compris les données d'utilisation des jetons dans Amazon Bedrock.

Les jetons sont enregistrés dans les métriques d’exécution `InputTokenCount` et `OutputTokenCount` (pour plus de métriques, consultez [Métriques d’exécution Amazon Bedrock](monitoring.md#runtime-cloudwatch-metrics).

Pour utiliser CloudWatch la surveillance afin de vous aider à prendre votre décision concernant le `max_tokens` paramètre, procédez comme suit dans le AWS Management Console

1. Connectez-vous à la CloudWatch console Amazon à l'adresse [https://console.aws.amazon.com/cloudwatch.](https://console.aws.amazon.com/cloudwatch)

1. Dans le volet de navigation de gauche, sélectionnez **Tableaux de bord**.

1. Sélectionnez l’onglet **Tableaux de bord automatiques**.

1. Sélectionnez **Bedrock**.

1. Dans le tableau de bord **Nombre de jetons par modèle**, sélectionnez l’icône de développement.

1. Sélectionnez une durée et des paramètres de plage pour les métriques afin de tenir compte de l’utilisation de pointe.

1. Dans le menu déroulant **Somme**, vous pouvez choisir différentes métriques pour observer l’utilisation de vos jetons. Examinez ces métriques pour orienter votre décision quant à la définition de votre valeur `max_tokens`.

# Surveillance de l’utilisation de vos jetons en comptant les jetons avant l’exécution de l’inférence
<a name="count-tokens"></a>

Lorsque vous exécutez une inférence de modèle, le nombre de jetons que vous envoyez dans l’entrée contribue au coût de la demande et au quota de jetons que vous pouvez utiliser par minute et par jour. L'[CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)API vous aide à estimer l'utilisation des jetons avant d'envoyer des demandes aux modèles de base en renvoyant le nombre de jetons qui serait utilisé si la même entrée était envoyée au modèle dans une demande d'inférence.

**Note**  
L'utilisation de [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)l'API n'entraîne aucun frais.

Le comptage des jetons est spécifique au modèle, car les différents modèles utilisent des stratégies de création de jetons différentes. Le nombre de jetons renvoyé par cette opération correspondra au nombre de jetons qui serait facturé si la même entrée était envoyée au modèle pour exécuter l’inférence.

Vous pouvez utiliser l’API `CountTokens` pour effectuer les opérations suivantes :
+ estimer les coûts avant d’envoyer des demandes d’inférence ;
+ optimiser les invites pour les adapter aux limites des jetons ;
+ planifier l’utilisation des jetons dans vos applications.

**Topics**
+ [Modèles et régions pris en charge pour le comptage des jetons](#count-tokens-supported)
+ [Comptage des jetons dans une demande](#count-tokens-use)
+ [Essayer un exemple](#count-tokens-example)

## Modèles et régions pris en charge pour le comptage des jetons
<a name="count-tokens-supported"></a>

Le tableau suivant montre le modèle de base qui prend en charge le comptage des jetons :


| Fournisseur | Modèle | ID du modèle | Support du modèle à région unique | 
| --- | --- | --- | --- | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  | 
| Anthropic | Sonnet de Claude 3.5 | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-southeast-1 eu-central-1 eu-central-2 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 |  eu-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  | 

## Comptage des jetons dans une demande
<a name="count-tokens-use"></a>

Pour compter le nombre de jetons d'entrée dans une demande d'inférence, envoyez une [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)demande avec un point de [terminaison Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt), spécifiez le modèle dans l'en-tête et l'entrée pour laquelle compter les jetons dans le `body` champ. La valeur du `body` champ varie selon que vous comptez les jetons d'entrée pour une demande [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)ou pour une requête [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) :
+ Pour une demande `InvokeModel`, le format de `body` est une chaîne représentant un objet JSON dont le format dépend du modèle que vous spécifiez.
+ Pour une demande `Converse`, le format de `body` est un objet JSON spécifiant les invites `messages` et `system` incluses dans la conversation.

## Essayer un exemple
<a name="count-tokens-example"></a>

Les exemples de cette section vous permettent de compter les jetons pour une demande `InvokeModel` et `Converse` avec Anthropic Claude 3 Haiku.

**Conditions préalables**
+ Vous avez téléchargé AWS SDK pour Python (Boto3) et votre configuration est configurée de telle sorte que vos informations d'identification et votre AWS région par défaut soient automatiquement reconnues.
+ Votre identité IAM est autorisée à effectuer les actions suivantes (pour plus d’informations, consultez [Actions, ressources et clés de condition pour Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html)) :
  + bedrock : CountTokens — Permet l'utilisation de. `CountTokens`
  + bedrock : InvokeModel — Permet l'utilisation de `InvokeModel` et`Converse`. Doit être limité au *arn:\$1\$1Partition\$1:bedrock:\$1\$1Region\$1::foundation-model/anthropic.claude-3-haiku-20240307-v1:0* minimum à.

Pour essayer de compter les jetons pour une [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)requête, exécutez le code Python suivant :

```
import boto3
import json

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = json.dumps({
    "anthropic_version": "bedrock-2023-05-31",
    "max_tokens": 500,
    "messages": [
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ]
})

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "invokeModel": {
            "body": input_to_count
        }
    }
)

print(response["inputTokens"])
```

Pour essayer de compter les jetons pour une demande [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html), exécutez le code Python suivant :

```
import boto3
import json 

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = {
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of France?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "The capital of France is Paris."
                }
            ]
        },
        {
            "role": "user",
            "content": [
                {
                    "text": "What is its population?"
                }
            ]
        }
    ],
    "system": [
        {
            "text": "You're an expert in geography."
        }
    ]
}

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "converse": input_to_count
    }
)

print(response["inputTokens"])
```

# Demande d’augmentation des quotas Amazon Bedrock
<a name="quotas-increase"></a>

Les étapes à suivre pour demander une augmentation de quota de votre compte dépendent de la valeur indiquée dans la colonne **Ajustable** du tableau des quotas dans [Quotas de service Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) :
+ Si un quota est marqué **Oui**, vous pouvez l’ajuster en suivant les étapes décrites dans [Demande d’augmentation de quota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) dans le Guide d’utilisation de Service Quotas.
+ Pour tout modèle, vous pouvez demander une augmentation pour les quotas suivants ensemble :
  + Jetons InvokeModel interrégionaux par minute pour *\$1\$1model\$1*
  + Demandes InvokeModel interrégionales par minute pour *\$1\$1model\$1*
  + Jetons InvokeModel à la demande par minute pour *\$1\$1model\$1*
  + Demandes InvokeModel à la demande par minute pour *\$1\$1model\$1*
  + Nombre maximal de jetons d’invocation du modèle par jour pour *\$1\$1model\$1*

  Pour demander une augmentation pour n’importe quelle combinaison de ces quotas, demandez une augmentation du quota **Jetons InvokeModel interrégionaux par minute pour *\$1\$1model\$1*** en suivant les étapes décrites dans [Demande d’augmentation de quota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) dans le Guide d’utilisation de Service Quotas. Une fois cette demande effectuée, l’équipe d’assistance vous contactera et vous proposera d’augmenter également les quatre autres quotas.
**Note**  
En raison de la forte demande, la priorité sera accordée aux clients dont le trafic consomme le quota qui leur est alloué. Votre demande peut être refusée si vous ne remplissez pas cette condition.

# Mise en cache des invites pour une inférence de modèle plus rapide
<a name="prompt-caching"></a>

La mise en cache des invites est une fonctionnalité facultative que vous pouvez utiliser avec les modèles pris en charge dans Amazon Bedrock afin de réduire la latence des réponses d’inférence et les coûts des jetons d’entrée. En ajoutant des parties de votre contexte à un cache, le modèle peut tirer parti du cache pour ignorer le recalcul des entrées, ce qui permet à Bedrock de partager les économies de calcul et de réduire les latences de réponse.

La mise en cache des invites peut être utile lorsque des charges de travail comportant des contextes longs et répétés sont fréquemment réutilisées pour plusieurs requêtes. Par exemple, si vous avez un chatbot où les utilisateurs peuvent charger des documents et poser des questions à leur sujet, le modèle peut prendre beaucoup de temps à traiter les documents chaque fois que l’utilisateur fournit des entrées. Grâce à la mise en cache des invites, vous pouvez mettre le document en cache afin que les futures requêtes contenant le document n’aient pas besoin de le retraiter.

Lorsque vous utilisez la mise en cache des invites, vous êtes facturé à un tarif réduit pour les jetons lus depuis le cache. Selon le modèle, les jetons écrits dans le cache peuvent être facturés à un tarif supérieur à celui des jetons d’entrée non mis en cache. Tous les jetons non lus depuis le cache, ou écrits dans ce dernier, sont facturés au tarif de jeton d’entrée standard pour ce modèle. Pour plus d’informations, consultez la page [Tarification Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).

## Comment ça marche
<a name="prompt-caching-overview"></a>

Si vous choisissez d’utiliser la mise en cache des invites, Amazon Bedrock crée un cache composé de *points de contrôle du cache*. Il s’agit de marqueurs qui définissent la sous-section contiguë de l’invite que vous souhaitez mettre en cache (souvent appelée préfixe d’invite). Ces préfixes d’invite doivent être statiques entre les demandes. Les modifications apportées au préfixe d’invite dans les demandes suivantes entraîneront des échecs de cache.

Les points de contrôle du cache comportent un nombre minimum et maximum de jetons, selon le modèle spécifique que vous utilisez. Vous ne pouvez créer un point de contrôle du cache que si le nombre total de préfixes d’invite correspond au nombre minimum de jetons. Par exemple, le modèle Anthropic Claude 3.7 Sonnet nécessite au moins 1 024 jetons par point de contrôle du cache. Cela signifie que votre premier point de contrôle du cache peut être défini au bout de 1 024 jetons et que le deuxième point de contrôle du cache peut être défini au bout de 2 048 jetons. Si vous essayez d’ajouter un point de contrôle du cache avant d’atteindre le nombre minimum de jetons, l’inférence réussira tout de même, mais le préfixe ne sera pas mis en cache. Le cache possède un Time To Live (TTL), qui est réinitialisé à chaque accès réussi au cache. Pendant cette période, le contexte en cache est conservé. Si aucun accès au cache ne se produit pendant la période TTL, celui-ci expire. La plupart des modèles prennent en charge un TTL de 5 minutes, tandis que le format Claude Opus 4,5Claude Haiku 4.5, et Claude Sonnet 4.5 proposent également une option TTL prolongée d'une heure.

Vous pouvez utiliser la mise en cache des invites chaque fois que vous obtenez une inférence de modèle dans Amazon Bedrock pour les modèles pris en charge. La mise en cache des invites est prise en charge par les fonctionnalités Amazon Bedrock suivantes :

**Converse et ConverseStream APIs**  
Vous pouvez poursuivre une conversation avec un modèle dans lequel vous spécifiez les points de contrôle du cache dans les invites.

**InvokeModel et InvokeModelWithResponseStream APIs**  
Vous pouvez soumettre des demandes d’invite uniques dans lesquelles vous activez la mise en cache des invites et spécifiez vos points de contrôle du cache.

**Mise en cache des invites avec inférence entre régions**  
La mise en cache des invites peut être utilisée conjointement avec l’inférence entre régions. L'inférence interrégionale sélectionne automatiquement la AWS région optimale au sein de votre zone géographique pour répondre à votre demande d'inférence, maximisant ainsi les ressources disponibles et la disponibilité des modèles. En période de forte demande, ces optimisations peuvent entraîner une augmentation du nombre d’écritures dans le cache.

**Amazon Bedrock Prompt Management**  
Lorsque vous [créez](prompt-management-create.md) ou [modifiez](prompt-management-modify.md) une invite, vous pouvez choisir d’activer la mise en cache des invites. Selon le modèle, vous pouvez mettre en cache les invites système, les instructions système et les messages (utilisateur et assistant). Vous pouvez également choisir de désactiver la mise en cache des invites.

Ils vous APIs offrent le maximum de flexibilité et de contrôle granulaire sur le cache des invites. Vous pouvez définir un point de contrôle du cache individuel au sein des invites. Vous pouvez ajouter du contenu au cache en créant d’autres points de contrôle du cache, dans la limite du nombre maximum de points de contrôle du cache autorisés pour le modèle spécifique. Pour de plus amples informations, veuillez consulter [Modèles, régions et limites pris en charge](#prompt-caching-models).

## Modèles, régions et limites pris en charge
<a name="prompt-caching-models"></a>

Le tableau suivant répertorie les modèles pris en charge ainsi que le nombre minimum de jetons, le nombre maximum de points de contrôle du cache et les champs autorisant les points de contrôle du cache.


| Nom du modèle | ID du modèle | Type de version | Nombre minimum de jetons par point de contrôle du cache | Nombre maximum de points de contrôle du cache par demande | TTL pris en charge | Champs qui acceptent les points de contrôle de mise en cache des invites | 
| --- | --- | --- | --- | --- | --- | --- | 
| Claude Opus4,5 | anthropic.claude-opus-4-5-20251101-v 1:0 | Disponibilité générale | 4 096 | 4 | 5 minutes, 1 heure | `système`, `messages` et `outils` | 
| Claude Opus4,1 | anthropic.claude-opus-4-1-20250805-v1:0 | Disponibilité générale | 1,024 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 | Disponibilité générale | 1,024 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Claude Sonnet 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | Disponibilité générale | 1,024 | 4 | 5 minutes, 1 heure | `système`, `messages` et `outils` | 
| Claude Haiku 4.5 | anthropic.claude-haiku-4-5-20251001-v1:0 | Disponibilité générale | 4 096 | 4 | 5 minutes, 1 heure | `système`, `messages` et `outils` | 
| Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | Disponibilité générale | 1,024 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v1:0 | Disponibilité générale | 1,024 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 | Disponibilité générale | 2 048 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 | Version préliminaire | 1,024 | 4 | 5 minutes | `système`, `messages` et `outils` | 
| Amazon Nova Micro | amazon. nova-micro-v1:0 | Disponible en général | 1 K 1 | 4 | 5 minutes | `système` et `messages` | 
| Amazon Nova Lite | amazon. nova-lite-v1:0 | Disponible en général | 1 K 1 | 4 | 5 minutes | `système` et `messages` 2 | 
| Amazon Nova Pro | amazon. nova-pro-v1:0 | Disponible en général | 1 K 1 | 4 | 5 minutes | `système` et `messages` 2 | 
| Amazon Nova Premier | amazon. nova-premier-v1:0 | Disponible en général | 1 K 1 | 4 | 5 minutes | `système` et `messages` 2 | 
| Amazon Nova 2 Lite | amazon.nova-2-lite-v 1:0 | Disponible en général | 1 K 1 | 4 | 5 minutes | `système` et `messages` 2 | 

1 : Les modèles Amazon Nova prennent en charge un nombre maximum de 20 000 jetons pour la mise en cache des invites.

2 : La mise en cache des invites concerne principalement les invites de texte.

Pour utiliser l'option TTL d'une heure avec les modèles pris en charge (Claude Opus4.5, etClaude Sonnet 4.5)Claude Haiku 4.5, spécifiez le `ttl` champ dans votre point de contrôle du cache. Dans l'API Converse, ajoutez-le `"ttl": "1h"` à votre `cachePoint` objet. Dans l' InvokeModel API pour les modèles Claude, ajoutez-les `"ttl": "1h"` à votre `cache_control` objet. Si aucune `ttl` valeur n'est fournie, le comportement de mise en cache de 5 minutes par défaut s'applique. Le TTL d'une heure est utile pour les sessions de longue durée ou les scénarios de traitement par lots dans lesquels vous souhaitez conserver le cache pendant de longues périodes.

Amazon Nova propose la mise en cache automatique des invites pour toutes les invites de texte, y compris les messages `User` et `System`. Ce mécanisme peut présenter des avantages concernant la latence lorsque les invites commencent par des parties répétitives, même en l’absence de configuration explicite. Cependant, pour bénéficier d’économies et garantir des avantages de performance plus constants, nous vous recommandons d’activer la **mise en cache des invites explicite**.

## Gestion du cache simplifiée pour les modèles Claude
<a name="prompt-caching-simplified"></a>

Pour les modèles Claude, Amazon Bedrock propose une approche simplifiée de la gestion du cache qui réduit la complexité du placement manuel des points de contrôle du cache. Au lieu de vous obliger à spécifier des emplacements précis pour les points de contrôle du cache, vous pouvez utiliser la gestion automatique du cache avec un seul point d’arrêt à la fin de votre contenu statique.

Lorsque vous activez la gestion simplifiée du cache, le système vérifie automatiquement les accès au cache aux limites des blocs de contenu précédents, en remontant jusqu’à environ 20 blocs de contenu par rapport au point d’arrêt spécifié. Cela permet au modèle de trouver le préfixe correspondant le plus long dans votre cache sans que vous ayez à prévoir l’emplacement optimal des points de contrôle. Pour l’utiliser, placez un point de contrôle du cache unique à la fin de votre contenu statique, avant tout contenu dynamique ou variable. Le système trouvera automatiquement la meilleure correspondance dans le cache.

Pour un contrôle plus précis, vous pouvez toujours utiliser plusieurs points de contrôle du cache (jusqu’à 4 pour les modèles Claude) pour définir les limites exactes du cache. Vous devez utiliser plusieurs points de contrôle du cache si vous mettez en cache des sections qui changent à des fréquences différentes ou si vous souhaitez mieux contrôler exactement ce qui est mis en cache.

**Important**  
La vérification automatique des préfixes ne prend en compte qu’une vingtaine de blocs de contenu depuis le point de contrôle du cache. Si votre contenu statique dépasse cette plage, envisagez d’utiliser plusieurs points de contrôle du cache ou de restructurer votre invite pour placer le contenu le plus fréquemment réutilisé dans cette plage.

## Comment utiliser efficacement la mise en cache rapide
<a name="prompt-caching-effective-use"></a>

Si vous avez des instructions qui sont utilisées à une cadence normale (c'est-à-dire des instructions système utilisées plus fréquemment que toutes les 5 minutes), continuez à utiliser le cache de 5 minutes, car celui-ci continuera à être actualisé sans frais supplémentaires.

Il est préférable d'utiliser le cache d'une heure dans les scénarios suivants :
+ Lorsque vous recevez des instructions qui sont probablement utilisées moins de 5 minutes, mais plus fréquemment que toutes les heures. Par exemple, lorsqu'un agent secondaire agentic prend plus de 5 minutes, ou lorsque vous enregistrez une longue conversation de chat avec un utilisateur et que vous vous attendez généralement à ce que celui-ci ne réponde pas dans les 5 prochaines minutes.
+ Lorsque la latence est importante et que vos instructions de suivi peuvent être envoyées au-delà de 5 minutes.
+ Lorsque vous souhaitez améliorer l'utilisation de votre limite de débit, car les accès au cache ne sont pas déduits de votre limite de débit.

Vous pouvez utiliser des contrôles de cache d'une heure et de 5 minutes dans la même demande, mais avec une contrainte importante : les entrées de cache avec un TTL plus long doivent apparaître avant le plus court TTLs (c'est-à-dire qu'une entrée de cache d'une heure doit apparaître avant toute entrée de cache de 5 minutes).

## Prise en main
<a name="prompt-caching-get-started"></a>

Les sections suivantes présentent un bref aperçu de l’utilisation de la fonctionnalité de mise en cache des invites pour chaque méthode d’interaction avec les modèles via Amazon Bedrock.

### API Converse
<a name="prompt-caching-converse"></a>

L’API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) fournit des options avancées et flexibles pour implémenter une mise en cache des invites dans les conversations complexes. Pour plus d’informations sur les exigences d’invite pour chaque modèle, consultez la section précédente : [Modèles, régions et limites pris en charge](#prompt-caching-models).

**Exemple de demande**

Les exemples suivants montrent un point de contrôle du cache défini dans les champs `messages`, `system` ou `tools`, ou d’une demande à l’API Converse. Vous pouvez placer des points de contrôle à n’importe lequel de ces emplacements pour une demande donnée. Par exemple, si vous envoyez une demande au modèle Claude 3.5 Sonnet v2, vous pouvez placer deux points de contrôle du cache dans `messages`, un point de contrôle du cache dans `system` et un autre dans `tools`. Pour plus de détails et des exemples de structuration et d’envoi de demandes d’API Converse, consultez [Mener une conversation avec les opérations d’API Converse](conversation-inference.md).

Spécifiez la valeur ttl souhaitée comme ci-dessous, lorsque la valeur ttl n'est pas spécifiée, le comportement par défaut de 5 minutes de mise en cache s'applique.

```
"cachePoint" : {
    "type": "default",
    "ttl" : "5m | 1h"
}
```

------
#### [ messages checkpoints ]

Dans cet exemple, le premier champ `image` fournit une image au modèle, et le second champ `text` demande au modèle d’analyser l’image. Tant que le nombre de jetons précédant le `cachePoint` dans l’objet `content` correspond au nombre minimum de jetons pour le modèle, un point de contrôle du cache est créé.

```
...
"messages": [
   {
        "role": "user",
        "content": [
            {
                "image": {
                    "bytes": "asfb14tscve..."
                }
            },
            {
                "text": "What's in this image?"
            },
            {
                "cachePoint": {
                    "type": "default"
                }
            }
      ]
  }
]
...
```

------
#### [ system checkpoints ]

Dans cet exemple, vous indiquez l’invite système dans le champ `text`. En outre, vous pouvez ajouter un champ `cachePoint` pour mettre en cache l’invite système.

```
...
  "system": [ 
    {
        "text": "You are an app that creates play lists for a radio station that plays rock and pop music. Only return song names and the artist. "
    },
    {
        "cachePoint": {
            "type": "default"
        }
    }
  ],
...
```

------
#### [ tools checkpoints ]

Dans cet exemple, vous indiquez la définition d’outil dans le champ `toolSpec`. (Vous pouvez également appeler un outil que vous avez défini précédemment. Pour plus d’informations, consultez [Utilisation d’un outil pour compléter une réponse au modèle Amazon Bedrock](tool-use.md).) Ensuite, vous pouvez ajouter un champ `cachePoint` pour mettre en cache l’outil.

```
...
toolConfig={
    "tools": [
        {
            "toolSpec": {
                "name": "top_song",
                "description": "Get the most popular song played on a radio station.",
                "inputSchema": {
                    "json": {
                        "type": "object",
                        "properties": {
                            "sign": {
                                "type": "string",
                                "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP."
                            }
                        },
                        "required": [
                            "sign"
                        ]
                    }
                }
            }
        },
        {
                "cachePoint": {
                    "type": "default"
                }
        }
    ]
}
...
```

------

Le modèle de réponse de l'ConverseAPI inclut trois nouveaux champs spécifiques à la mise en cache rapide. Les valeurs `CacheReadInputTokens` et `CacheWriteInputTokens` vous indiquent combien de jetons ont été lus depuis le cache et combien de jetons ont été écrits dans le cache à la suite de votre précédente demande. Les `CacheDetails` valeurs indiquent le ttl utilisé pour le nombre de jetons écrits dans le cache. Il s’agit de valeurs qui vous sont facturées par Amazon Bedrock, à un tarif inférieur au coût de l’inférence de modèle complète.

### InvokeModel API
<a name="prompt-caching-invoke"></a>

La mise en cache rapide est activée par défaut lorsque vous appelez l'[InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)API. Vous pouvez définir des points de contrôle du cache à tout moment dans le corps de votre demande, comme dans l’exemple précédent pour l’API Converse.

------
#### [ Anthropic Claude ]

L'exemple suivant montre comment structurer le corps de votre InvokeModel demande pour le modèle Anthropic Claude 3.5 Sonnet v2. Notez que le format exact et les champs du corps des InvokeModel demandes peuvent varier en fonction du modèle que vous choisissez. Pour connaître le format et le contenu des corps de demande et de réponse pour les différents modèles, voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md).

Spécifiez la valeur ttl souhaitée comme ci-dessous, lorsque la valeur ttl n'est pas spécifiée, le comportement par défaut de 5 minutes de mise en cache s'applique.

```
"cache_control" : {
    "type": "ephemeral",
    "ttl" : "5m | 1h"
}
```

```
body={
        "anthropic_version": "bedrock-2023-05-31",
        "system":"Reply concisely",
        "messages": [
            {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "Describe the best way to learn programming."
                },
                {
                    "type": "text",
                    "text": "Add additional context here for the prompt that meets the minimum token requirement for your chosen model.",
                    "cache_control": {
                        "type": "ephemeral"
                    }
                }
            ]
            }
        ],
        "max_tokens": 2048,
        "temperature": 0.5,
        "top_p": 0.8,
        "stop_sequences": [
            "stop"
        ],
        "top_k": 250
}
```

------
#### [ Amazon Nova ]

L'exemple suivant montre comment structurer le corps de votre InvokeModel demande pour le Amazon Nova modèle. Notez que le format exact et les champs du corps des InvokeModel demandes peuvent varier en fonction du modèle que vous choisissez. Pour connaître le format et le contenu des corps de demande et de réponse pour les différents modèles, voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md).

```
{
    "system": [{
        "text": "Reply Concisely"
    }],
    "messages": [{
        "role": "user",
        "content": [{
            "text": "Describe the best way to learn programming"
        },
        {
            "text": "Add additional context here for the prompt that meets the minimum token requirement for your chosen model.",
            "cachePoint": {
                "type": "default"
            }
        }]
    }],
    "inferenceConfig": {
        "maxTokens": 300,
        "topP": 0.1,
        "topK": 20,
        "temperature": 0.3
    }
}
```

------

Pour plus d'informations sur l'envoi d'une InvokeModel demande, consultez[Soumettez une seule invite avec InvokeModel](inference-invoke.md).

### Terrain de jeu
<a name="prompt-caching-playground"></a>

Dans un terrain de jeu de discussion de la console Amazon Bedrock, vous pouvez activer l’option de mise en cache des invites. Ensuite, Amazon Bedrock crée automatiquement des points de contrôle du cache pour vous.

Suivez les instructions de [Génération de réponses dans la console à l’aide de terrains de jeu](playgrounds.md) pour commencer à recevoir des invites dans un terrain de jeu Amazon Bedrock. Pour les modèles pris en charge, la mise en cache des invites est automatiquement activée dans le terrain de jeu. Toutefois, si ce n’est pas le cas, procédez comme suit pour activer la mise en cache des invites :

1. Dans le panneau latéral gauche, ouvrez le menu **Configurations**.

1. Activez la bascule **Mise en cache des invites**.

1. Exécutez vos invites.

Une fois que vos réponses combinées d’entrée et de modèle atteignent le nombre minimum de jetons requis pour un point de contrôle (qui varie selon le modèle), Amazon Bedrock crée automatiquement le premier point de contrôle du cache pour vous. Au fur et à mesure que vous poursuivez la discussion, chaque fois que vous atteignez le nombre minimum de jetons, un nouveau point de contrôle est créé, dans la limite du nombre maximum de points de contrôle autorisé pour le modèle. Vous pouvez consulter les points de contrôle de votre cache à tout moment en choisissant **Afficher les points de contrôle du cache** en regard de la bascule **Mise en cache des invites**, comme le montre la capture d’écran suivante.

![\[Bascule de l’interface utilisateur pour la mise en cache des invites dans un terrain de jeu de texte Amazon Bedrock.\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-ui-toggle.png)


Vous pouvez voir le nombre de jetons qui sont lus depuis et écrits dans le cache en raison de chaque interaction avec le modèle en consultant la fenêtre contextuelle **Métriques de mise en cache** (![\[The metrics icon shown in model responses when prompt caching is enabled.\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-metrics-icon.png)) dans les réponses du terrain de jeu.

![\[Zone Métriques de mise en cache qui indique le nombre de jetons lus et écrits dans le cache.\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-metrics.png)


Si vous désactivez la bascule de mise en cache des invites alors que vous êtes au milieu d’une conversation, vous pouvez continuer à discuter avec le modèle.