

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Optimización de la capacidad, los límites y los costes
<a name="capacity-limits-cost-optimization"></a>

Amazon Bedrock ofrece opciones de capacidad flexibles que se adaptan a sus requisitos de carga de trabajo y a su presupuesto. Comprender las diferencias entre los niveles bajo demanda (flexible, prioritario, estándar), el nivel reservado, el procesamiento por lotes y la inferencia entre regiones le ayudará a optimizar tanto el rendimiento como los costos.

# Niveles de servicio para optimizar el rendimiento y los costes
<a name="service-tiers-inference"></a>

Amazon Bedrock ofrece cuatro niveles de servicio para la inferencia de modelos: Reserved, Priority, Standard y Flex. Con los niveles de servicio, puede optimizar la disponibilidad, el costo y el rendimiento.

## Nivel reservado
<a name="w2aac26b5b5"></a>

El nivel reservado ofrece la posibilidad de reservar la capacidad informática priorizada para las aplicaciones de misión crítica que no pueden tolerar ningún tiempo de inactividad. Tiene la flexibilidad de asignar diferentes tokens-per-minute capacidades de entrada y salida para adaptarse a los requisitos exactos de su carga de trabajo y controlar los costes. Cuando su aplicación necesita más tokens-per-minute capacidad de la que ha reservado, el servicio pasa automáticamente al nivel estándar, lo que garantiza un funcionamiento ininterrumpido. El nivel reservado prevé un tiempo de actividad del 99,5% para la respuesta del modelo. Los clientes pueden reservar capacidad durante 1 o 3 meses. Los clientes pagan un precio fijo por cada 1000€ tokens-per-minute y se les factura mensualmente.

Para obtener acceso a la capa reservada, póngase en contacto con el equipo de su cuenta de AWS.

**nota**  
La facturación continúa hasta que elimine la reserva del nivel reservado con la ayuda de su Cuenta de AWS gerente.

## Nivel de prioridad
<a name="w2aac26b5b7"></a>

El nivel de prioridad ofrece los tiempos de respuesta más rápidos a un precio superior al precio estándar bajo demanda. Es ideal para aplicaciones de misión crítica con flujos de trabajo empresariales orientados al cliente que no garantizan una reserva de capacidad las 24 horas del día, los 7 días de la semana. El nivel de prioridad no requiere reserva previa. Simplemente puede establecer el parámetro opcional «service\$1tier» en «priority» para aprovechar la priorización a nivel de solicitud. Las solicitudes de nivel prioritario tienen prioridad sobre las solicitudes de nivel estándar y flexible.

## Nivel estándar
<a name="w2aac26b5b9"></a>

El nivel estándar proporciona un rendimiento uniforme para las tareas diarias de IA, como la generación de contenido, el análisis de texto y el procesamiento rutinario de documentos. De forma predeterminada, todas las solicitudes de inferencia se envían al nivel estándar cuando falta el parámetro «service\$1tier». También puede configurar el parámetro opcional «service\$1tier» como «predeterminado» para que su solicitud de inferencia se atienda con el nivel estándar.

## Nivel flexible
<a name="w2aac26b5c11"></a>

Para las cargas de trabajo que pueden gestionar tiempos de procesamiento más prolongados, el nivel Flex ofrece un procesamiento rentable con un descuento en el precio. Esto le ayuda a optimizar los costes de las cargas de trabajo, como las evaluaciones de modelos, el resumen de contenido y los flujos de trabajo de los agentes. Puede configurar el parámetro opcional «service\$1tier» en «flex» para que su solicitud de inferencia se atienda con el nivel Flex y aprovechar el descuento en el precio.

## Uso de la capacidad del nivel de servicio
<a name="w2aac26b5c13"></a>

Para acceder a la capacidad del nivel de servicio, puede configurar el parámetro opcional «service\$1tier» en «reservado», «prioritario», «predeterminado» o «flexible» mientras llama a la API de tiempo de ejecución de Amazon Bedrock.

```
"service_tier" : "reserved | priority | default | flex"
```

La cuota bajo demanda de un modelo se comparte entre los niveles de servicio «prioritario», «predeterminado» y «flexible». La reserva de capacidad del nivel «reservado» es independiente de la cuota bajo demanda. La configuración del nivel de servicio de una solicitud atendida está visible en la respuesta de la API y en CloudTrail los eventos de AWS. También puedes ver las métricas del nivel de servicio en Amazon CloudWatch Metrics en ModelId ServiceTier, y ResolvedServiceTier, donde se ResolvedServiceTier muestra el nivel real que atendió tus solicitudes.

Para obtener más información sobre los precios, consulte la [página de precios](https://aws.amazon.com/bedrock/pricing/).

Modelos y regiones compatibles con el nivel de servicio reservado:


|  |  |  |  | 
| --- |--- |--- |--- |
| Proveedor | Model | Model IDs | Regiones | 
| Anthropic | Claude Sonnet 4.6 | global.antropic.claude-sonnet-4-6us.anthropic.claude-sonnet-4-6eu.anthropic.claude-sonnet-4-6 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| me-south-1 | 
| ap-southeast-7 | 
| af-south-1 | 
| me-central-1 | 
| ap-southeast-5 | 
| mx-central-1 | 
| il-central-1 | 
| ap-east-2 | 
| ca-west-1 | 
| Anthropic | Claude Opus 4.6 | global.anthropic.claude-opus-4-6-v1us.anthropic.claude-opus-4-6-v1eu.anthropic.claude-opus-4-6-v1 | af-south-1 | 
| ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-south-1 | 
| ap-south-2 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| me-south-1 | 
| mx-central-1 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Anthropic | Soneto Claude 4.5 | global.anthropic.claude-sonnet-4-5-20250929-v 1:0us.anthropic.claude-sonnet-4-5-20250929-v 1:0eu.anthropic.claude-sonnet-4-5-20250929-v 1:0us-gov.anthropic.claude-sonnet-4-5-20250929-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| us-gov-west-1 | 
| Anthropic | Claude Opus 4.5 | global.anthropic.claude-opus-4-5-20251101-v 1:0us.anthropic.claude-opus-4-5-20251101-v 1:0eu.anthropic.claude-opus-4-5-20251101-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Anthropic | Claude Haiku 4.5 | global.anthropic.claude-haiku-4-5-20251001-v 1:0us.anthropic.claude-haiku-4-5-20251001-v 1:0eu.anthropic.claude-haiku-4-5-20251001-v 1:0 | ap-northeast-1 | 
| ap-northeast-2 | 
| ap-northeast-3 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-south-1 | 
| ap-southeast-3 | 
| ap-south-2 | 
| ap-southeast-4 | 
| ca-central-1 | 
| eu-west-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 

**nota**  
El nivel reservado no admite una longitud de contexto de 1 millón para el Sonnet 4.5.

Modelos y regiones compatibles con los niveles de servicio Priority y Flex:


|  |  |  |  | 
| --- |--- |--- |--- |
| Proveedor | Model | ID del modelo | Regiones | 
| OpenAI | gpt-oss-120b | openai.gpt-oss-120b- 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| OpenAI | gpt-oss-20b | openai.gpt-oss-20b-1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| OpenAI | GPT OSS Safeguard 20B | openai. gpt-oss-safeguard-20b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| OpenAI | GPT OSS Safeguard 120B | openai. gpt-oss-safeguard-120b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Qwen | Qwen3 235 B A2 B 2507 | qwen.qwen3-235b-a22b-2507-v 1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-2 | 
| Qwen | Codificador Qwen3 480B A35B Instruct | qwen.qwen3-codificador-480b-a35b-v 1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-north-1 | 
| eu-west-2 | 
| Qwen | Codificador Qwen 3-30B-A3B-Instruct | qwen.qwen3-codificador-30b-a3b-v 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| Qwen | Qwen3 32B (denso) | qwen.qwen3-32b-v 1:0 | us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-west-1 | 
| eu-west-2 | 
| sa-east-1 | 
| Qwen | Qwen3 Next 80B A3B | qwen.qwen3-next-80b-a3b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Qwen | Qwen3 VL 235B A2B | qwen.qwen3-vl-235b-a22b | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| DeepSeek | DeepSeek-V3.1 | deepseek.v3-v1:0 | us-east-2 | 
| us-west-2 | 
| ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-3 | 
| eu-north-1 | 
| eu-west-2 | 
| Amazon | Nova Premier | amazona. nova-premier-v1:0 | us-east-1\$1 | 
| us-east-2\$1 | 
| us-west-2\$1 | 
| Amazon | Nova Pro | amazon. nova-pro-v1:0 | us-east-1 | 
| us-east-2\$1 | 
| EE. UU.-Oest-1\$1 | 
| us-west-2\$1 | 
| ap-east-2\$1 | 
| ap-nordeste-1\$1 | 
| ap-northeast-2\$1 | 
| ap-south-1\$1 | 
| ap-sudeste-1\$1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-sudeste-4\$1 | 
| ap-southeast-5\$1 | 
| ap-southeast-7\$1 | 
| eu-central-1\$1 | 
| eu-norte-1\$1 | 
| eu-sur-1\$1 | 
| eu-sur-2\$1 | 
| eu-west-1\$1 | 
| eu-west-2 | 
| eu-west-3\$1 | 
| il central-1\$1 | 
| me-central-1 | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0 | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Amazon | Vista previa de Nova 2 Pro | amazon.nova-2-pro-preview-20251202-v 1:0 | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Amazon | Nova Lite 2 Omni | amazon.nova-2- 1 lite-omni-v | ap-east-2 | 
| ap-northeast-1 | 
| ap-northeast-2 | 
| ap-south-1 | 
| ap-southeast-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ap-southeast-4 | 
| ap-southeast-5 | 
| ap-southeast-7 | 
| ca-central-1 | 
| ca-west-1 | 
| eu-central-1 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| il-central-1 | 
| me-central-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-1 | 
| us-west-2 | 
| Google | Gemma 3 4B | google.gemma-3-4b-it | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Google | Gemma 3 12B | google.gemma-3-12b-it | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Google | Gemma 3 27B | google.gemma-3-27b-it | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| IA Minimax | Minimax M2 | mínimax.minimax-m2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Magistral Small 1.2 | mistral.magistral-small-2509 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Voxtral Mini 1.0 | mistral.voxtral-mini-3b-2507 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Voxtral Small 1.0 | mistral.voxtral-pequeño-24b-2507 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 3B 3.0 | mistral.ministral-3-3b-instruct | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 8B 3.0 | mistral.ministral-3-8b-instruct | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Ministral 14B 3.0 | mistral.ministral-3-14b-instruct | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Mistral | Mistral Large 3 | mistral.mistral-large 3-675b-instruct | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Kimi AI | Kimi K2 Pensando | moonshot.kimi-k2-thinking | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Nvidia | NVIDIA Nemotron Nano 2 | nvidia.nemotron-nano-9b-v2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 
| Nvidia | NVIDIA Nemotron Nano 2 VL | nvidia.nemotron-nano-12b-v2 | ap-northeast-1 | 
| ap-south-1 | 
| ap-southeast-2 | 
| ap-southeast-3 | 
| ca-central-1 | 
| eu-central-1 | 
| eu-central-2 | 
| eu-north-1 | 
| eu-south-1 | 
| eu-south-2 | 
| eu-west-1 | 
| eu-west-2 | 
| eu-west-3 | 
| sa-east-1 | 
| us-east-1 | 
| us-east-2 | 
| us-west-2 | 

 \$1 La inferencia de modelos se puede realizar utilizando varias regiones. 

Para controlar el acceso a los niveles de servicio, consulte [Controle el acceso a los niveles de servicio](security_iam_id-based-policy-examples-agent.md#security_iam_id-based-policy-examples-service-tiers)

## Opciones de capacidad
<a name="capacity-options"></a>


| Tipo de capacidad | Caso de uso | Características clave | 
| --- | --- | --- | 
| Bajo demanda: Flex | Cargas de trabajo esporádicas y de bajo volumen |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Bajo demanda: estándar | Cargas de trabajo de producción regulares |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Bajo demanda: prioridad | Aplicaciones sensibles a la latencia y de alta prioridad |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Nivel reservado | Cargas de trabajo consistentes y de gran volumen |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Lote |  non-time-sensitiveProcesamiento a gran escala |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 
| Inferencia entre regiones | Alta disponibilidad, tráfico a raudales |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/capacity-limits-cost-optimization.html)  | 

## Límites y cuotas
<a name="limits-quotas"></a>

### Límites bajo demanda (por nivel)
<a name="on-demand-limits"></a>


| Nivel | Rango de RPM | Rango TPM | Riesgo de estrangulamiento | 
| --- | --- | --- | --- | 
| Flexionar | 10-100 | 5K-50 K | Alto | 
| Standard | 100-500 | 50 K-150 K | Medio | 
| Priority (Prioridad) | 500-1000 \$1 | 150K-300K\$1 | Bajo | 
+ Capacidad de ráfaga: disponible en todos los niveles para picos cortos
+ Límites flexibles: se pueden aumentar mediante solicitudes de cuotas de servicio
+ Específicos del modelo: los límites reales varían según el modelo básico

### Límites de niveles reservados
<a name="reserved-tier-limits"></a>
+ Compromiso mínimo: 1 unidad modelo
+ Unidades máximas: específicas de la cuenta y la región
+ Límites de entrada y salida de fichas: según las unidades compradas
+ No se limitan las RPM dentro de la capacidad comprada

### Límites de procesamiento por lotes
<a name="batch-processing-limits"></a>
+ Tamaño del trabajo: hasta 10 000 registros por lote
+ Tamaño del archivo: archivo de entrada máximo de 200 MB
+ Tiempo de procesamiento: plazo de finalización de 24 horas
+ Trabajos simultáneos: cuotas específicas por región

### Inferencia interregional
<a name="cross-region-inference-limits"></a>
+ Hereda los límites de los niveles bajo demanda por región
+ Sin gastos de cuota adicionales
+ Enrutamiento automático (sin administración manual de límites)

## Optimización de costes
<a name="cost-optimization"></a>

### Marco de decisión
<a name="decision-framework"></a>


| Escenario | Opción recomendada | ¿Por qué | 
| --- | --- | --- | 
| Desarrollo/pruebas | Flexionar | El costo más bajo, aceptable para la no producción | 
| Producción estándar | Standard | La mejor relación costo-rendimiento | 
| Aplicaciones críticas orientadas al usuario | Priority (Prioridad) | Fiabilidad y rendimiento por encima del coste | 
| Carga constante de alto volumen | Nivel reservado | Ahorros del 30 al 50% con compromiso | 
| Procesamiento masivo de datos | Lote | 50% de descuento, cargas de trabajo no urgentes | 
| Tiempo de actividad fundamental | Inferencia entre regiones | Disponibilidad > costo | 

### Estrategias de optimización
<a name="optimization-strategies"></a>

**Elija el nivel bajo demanda adecuado**
+ Comience con el estándar para la mayoría de las cargas de trabajo
+ Cambie a Flex para entornos dev/test 
+ Actualice a Priority solo cuando la limitación afecte a los usuarios
+ Supervise las métricas CloudWatch de aceleración para tomar decisiones informadas

**Transición al nivel reservado**
+ Cuando la carga constante supera el 40% de los costes bajo demanda
+ Calcule el punto de equilibrio: (coste mensual bajo demanda) frente a (compromiso reservado)
+ Utilice inicialmente un compromiso de 1 mes
+ El nivel reservado puede funcionar junto con cualquier nivel bajo demanda

**Aproveche Batch para**
+ Generación de datos de entrenamiento
+ Atrasos en la moderación de contenido
+ Generación de informes
+ Canalizaciones de enriquecimiento de datos

**Combine enfoques**
+ Nivel reservado para el tráfico de referencia
+ Estándar bajo demanda para ráfagas moderadas
+ Prioridad bajo demanda para períodos críticos de alta demanda
+ Batch para procesamiento fuera de línea
+ Únicamente para conmutación por error entre regiones

**Supervisión de costes**
+ Compare los costos por niveles: Flex < Standard < Priority
+ Realice un seguimiento de los tokens por solicitud (optimice las indicaciones)
+ Utilice CloudWatch métricas para la utilización y la limitación
+ Configura alarmas de facturación en caso de picos inesperados
+ Revise el uso de los niveles reservados mensualmente
+ Evalúe las actualizaciones de nivel solo cuando se produzca una limitación

# Procesamiento de múltiples peticiones con la inferencia por lotes
<a name="batch-inference"></a>

La inferencia por lotes le permite enviar varias peticiones y generar respuestas de forma asíncrona. Puede formatear los datos de entrada mediante el formato o el formato API. `InvokeModel` `Converse` La inferencia por lotes le ayuda a procesar una gran cantidad de solicitudes de manera eficiente al enviar una sola solicitud y generar las respuestas en un bucket de Amazon S3. Una vez definidas las entradas del modelo en los archivos que cree, los archivos se cargan a un bucket de S3. A continuación, envía una solicitud de inferencia por lotes y especifica el bucket de S3. Una vez finalizado el trabajo, podrá recuperar los archivos de salida de S3. Puede utilizar la inferencia por lotes para mejorar el rendimiento de la inferencia de modelos en conjuntos de datos de gran tamaño.

**nota**  
Los modelos aprovisionados no admiten la inferencia por lotes.

Consulte los siguientes recursos para obtener información general sobre la inferencia por lotes:
+ Para ver los precios de la inferencia por lotes, consulte [Amazon Bedrock pricing](https://aws.amazon.com/bedrock/pricing/).
+ Para ver las cuotas de la inferencia por lotes, consulte [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) en la Referencia general de AWS.
+ Para recibir notificaciones cuando se completen los trabajos de inferencia por lotes o cambien de estado en lugar de realizar un sondeo, consulte. [Supervisa los cambios en el estado laboral de Amazon Bedrock con Amazon EventBridgeSupervisa los cambios en los eventos](monitoring-eventbridge.md)

**Topics**
+ [Regiones y modelos compatibles con la inferencia por lotes](batch-inference-supported.md)
+ [Requisitos previos para la inferencia por lotes](batch-inference-prereq.md)
+ [Crear un trabajo de inferencia por lotes](batch-inference-create.md)
+ [Supervisión de los trabajos de inferencia por lotes](batch-inference-monitor.md)
+ [Detención de un trabajo de inferencia por lotes](batch-inference-stop.md)
+ [Visualización de los resultados de un trabajo de inferencia por lotes](batch-inference-results.md)
+ [Ejemplos de código de inferencia en lotes](batch-inference-example.md)
+ [Envío de un lote de peticiones con la API Batch de OpenAI](inference-openai-batch.md)

# Regiones y modelos compatibles con la inferencia por lotes
<a name="batch-inference-supported"></a>

La siguiente lista proporciona enlaces a información general sobre la compatibilidad de regiones y modelos en Amazon Bedrock:
+ Para obtener una lista de los códigos de región y los puntos de conexión compatibles con Amazon Bedrock, consulte [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bedrock_region).
+ Para obtener una lista del modelo de Amazon Bedrock que se debe usar IDs al llamar a las operaciones de la API de Amazon Bedrock, consulte. [Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md)
+ Para obtener una lista del perfil de inferencia de Amazon Bedrock que se utilizará IDs al llamar a las operaciones de la API de Amazon Bedrock, consulte. [Perfiles de inferencia entre regiones admitidos](inference-profiles-support.md#inference-profiles-support-system)

La inferencia por lotes se puede utilizar con diferentes tipos de modelos. En la siguiente lista se describe la compatibilidad con distintos tipos de modelos de Amazon Bedrock:
+ **Compatibilidad con modelos de una sola región**: enumera las regiones que admiten el envío de solicitudes de inferencia a un modelo básico de una región. AWS Para ver una tabla completa de los modelos disponibles en Amazon Bedrock, consulte[Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md).
+ **Compatibilidad con perfiles de inferencia entre regiones**: enumera las regiones que admiten el uso de un perfil de inferencia entre regiones, que permiten enviar solicitudes de inferencia a un modelo básico en varias AWS regiones de un área geográfica. Un perfil de inferencia tiene un prefijo antes del ID del modelo que indica su área geográfica (por ejemplo,,). `us.` `apac` Para obtener más información sobre los perfiles de inferencia disponibles en Amazon Bedrock, consulte. [Regiones y modelos compatibles con los perfiles de inferencia](inference-profiles-support.md)
+ **Soporte de modelos personalizados**: enumera las regiones que admiten el envío de solicitudes de inferencia a un modelo personalizado. Para obtener más información sobre la personalización del modelo, consulte[Personalización del modelo para mejorar su rendimiento según su caso de uso](custom-models.md).

En la siguiente tabla se resume la compatibilidad con la inferencia por lotes:


| Proveedor | Modelo | ID del modelo | Compatibilidad con modelos de una sola región | Soporte de perfiles de inferencia entre regiones | Soporte de modelos personalizados | 
| --- | --- | --- | --- | --- | --- | 
| Amazon | Incrustaciones multimodales de Amazon Nova | multimodal-embeddings-vamazon.nova-2- 1:0 |  us-east-1  |  | N/A | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0 | N/A |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Nova Lite | amazona. nova-lite-v1:0 |  me-central-1 us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Nova Micro | amazona. nova-micro-v1:0 |  us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-2  | N/A | 
| Amazon | Nova Premier | amazona. nova-premier-v1:0 | N/A |  us-east-1 us-east-2 us-west-2  | N/A | 
| Amazon | Nova Pro | amazon. nova-pro-v1:0 |  ap-southeast-3 me-central-1 us-east-1 us-gov-west-1  |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Amazon | Titan Multimodal Embeddings G1 | amazona. titan-embed-image-v1 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  |  us-east-1 us-west-2  | 
| Amazon | Titan Text Embeddings V2 | amazon. titan-embed-text-v2:0 |  ap-northeast-1 ap-northeast-2 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-2 sa-east-1 us-east-1 us-west-2  |  | N/A | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 ca-central-1 eu-central-1 eu-central-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | N/A | N/A | 
| Anthropic | Claude 3 Opus | anthropic.claude-3-opus-20240229-v 1:0 |  us-west-2  |  us-east-1  | N/A | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v1:0 |  ap-northeast-2 ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  |  us-east-1  | N/A | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-northeast-2 ap-southeast-1 eu-central-1 us-east-1 us-east-2 us-west-2  |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2 eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  us-west-2  |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 us-east-1 us-east-2 us-west-2  | N/A | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v 1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 eu-central-1 eu-north-1 eu-west-1 eu-west-3 us-east-1 us-east-2 us-west-2  | N/A | 
| Anthropic | Claude Haiku 4.5 | anthropic.claude-haiku-4-5-20251001-v1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Opus 4.5 | antropic.claude-opus-4-5-20251101-v 1:0 | N/A |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Opus 4.6 | antropica.claude-opus-4-6-v1 | N/A |  af-south-1 ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | N/A |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1 me-central-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Anthropic | Soneto Claude 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | N/A |  af-south-1 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-gov-east-1 us-gov-west-1 us-west-1 us-west-2  | N/A | 
| Anthropic | Claude Sonnet 4.6 | antropico. Claude-sonnet-4-6 |  eu-west-2  |  af-south-1 ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5 ap-southeast-7 ca-central-1 ca-west-1 eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3 il-central-1 me-central-1 me-south-1 mx-central-1 sa-east-1 us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| DeepSeek | DeepSeek V3.2 | deepseek.v3.2 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| DeepSeek | DeepSeek-V3.1 | deepseek.v3-v1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 us-east-2 us-west-2  |  | N/A | 
| Google | Gemma 3 12B IT | google.gemma-3-12b-it |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Google | Gemma 3 27B PT | google.gemma-3-27b-it |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Google | Gemma 3 4B IT | google.gemma-3-4b-it |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Meta | Llama 3.1 405B Instruct | metal.llama3-1-405 1:0 b-instruct-v |  us-west-2  |  | N/A | 
| Meta | Llama 3.1 70B Instruct | b-instruct-vmeta.llama3-1-70 1:0 |  us-west-2  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.1 8B Instruct | metal.llama 3-1-8 1:0 b-instruct-v |  us-west-2  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 11B Instruct | metal.llama 3-2-11 1:0 b-instruct-v |  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 1B Instruct | meta.llama 3-2-1 1:0 b-instruct-v |  |  eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 3B Instruct | meta.llama 3-2-3 1:0 b-instruct-v |  |  eu-central-1 eu-west-1 eu-west-3 us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.2 90B Instruct | meta.llama3-2-90 1:0 b-instruct-v |  |  us-east-1 us-west-2  | N/A | 
| Meta | Llama 3.3 70B Instruct | metal.llama 3-3-70 1:0 b-instruct-v |  us-east-2  |  us-east-1 us-east-2 us-west-2  | N/A | 
| Meta | Llama 4 Maverick 17B Instruct | meta.llama4-maverick-17 1:0 b-instruct-v |  |  us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| Meta | Llama 4 Scout 17B Instruct | b-instruct-vmeta.llama4-scout-17 1:0 |  |  us-east-1 us-east-2 us-west-1 us-west-2  | N/A | 
| MiniMax | MiniMax M2 | minimax.minimax-m2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| MiniMax | MiniMax M2.1 | minimax.minimax-m2.1 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Devstral 2 123 MB | mistral.devstral-2-123b |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Magistral Small 2509 | mistral.magistral-small-2509 |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 14B 3.0 | mistral.ministral-3-14b-instruct |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 3 8B | mistral.ministral-3-8b-instruct |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Ministral 3B | mistral.ministral-3-3b-instruct |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Large 3 | mistral.mistral-large 3-675b-instruct |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Mistral Small (24.02) | mistral.mistral-small-2402-v1:0 |  us-east-1  | N/A | N/A | 
| Mistral AI | Voxtral Mini 3G 2507 | mistral.voxtral-mini-3b-2507 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Mistral AI | Voxtral Small 24V 2507 | mistral.voxtral-pequeño-24b-2507 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Moonshot AI | Pensando en Kimi K2 | moonshot.kimi-k2-thinking |  ap-northeast-1 ap-south-1 ap-southeast-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Moonshot AI | Kimi K2.5 | moonshotai.kimi-k2.5 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | NVIDIA Nemotron Nano 12B v2 VL BF16 | nvidia.nemotron-nano-12b-v2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | NVIDIA Nemotron Nano 9B v2 | nvidia.nemotron-nano-9b-v2 |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| NVIDIA | Nemotron Nano 3 30B | nvidia.nemotron-nano-3-30b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | GPT OSS Safeguard 120B | openai. gpt-oss-safeguard-120b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | GPT OSS Safeguard 20B | openai. gpt-oss-safeguard-20b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| OpenAI | gpt-oss-120b | openai.gpt-oss-120b- 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-gov-west-1 us-west-2  | N/A | N/A | 
| OpenAI | gpt-oss-20b | openai.gpt-oss-20b-1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-gov-west-1 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 235 B A2 B 2507 | qwen.qwen3-235b-a22b-2507-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-2 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 32B (denso) | qwen.qwen3-32b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Codificador Qwen3 480B A35B Instruct | qwen.qwen3-codificador-480b-a35b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 Coder Next | qwen.qwen3-coder-next |  ap-southeast-2 eu-west-2 us-east-1  | N/A | N/A | 
| Qwen | Qwen3 Next 80B A3B | qwen.qwen3-next-80b-a3b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Qwen3 VL 235B A2B | qwen.qwen3-vl-235b-a22b |  ap-northeast-1 ap-south-1 ap-southeast-2 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Qwen | Codificador Qwen 3-30B-A3B-Instruct | qwen.qwen3-coder-30b-a3b-v 1:0 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Z.AI | GLM 4.7 | zai.glm-4.7 |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-north-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 
| Z.AI | Flash GLM 4.7 | zai.glm-4.7-flash |  ap-northeast-1 ap-south-1 ap-southeast-2 ap-southeast-3 eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-2 sa-east-1 us-east-1 us-east-2 us-west-2  | N/A | N/A | 

# Requisitos previos para la inferencia por lotes
<a name="batch-inference-prereq"></a>

Para realizar la inferencia por lotes, debe cumplir los siguientes requisitos previos:

1. Prepare su conjunto de datos y cárguelo en un bucket de Amazon S3.

1. Cree un bucket de S3 para los datos de salida.

1. Configure los permisos relacionados con la inferencia en lotes para las identidades de IAM pertinentes.

1. (Opcional) Configure una VPC para proteger los datos de S3 mientras realiza la inferencia en lotes. Puede omitir este paso si no necesita ninguna VPC.

Para obtener información sobre cómo cumplir estos requisitos previos, consulte los siguientes temas:

**Topics**
+ [Formateo y carga de los datos de la inferencia por lotes](batch-inference-data.md)
+ [Permisos obligatorios para la inferencia por lotes](batch-inference-permissions.md)
+ [Protección de los trabajos de inferencia de lotes mediante una VPC](batch-vpc.md)

# Formateo y carga de los datos de la inferencia por lotes
<a name="batch-inference-data"></a>

Debe añadir los datos de inferencia en lotes a la ubicación de S3 que elija o especifique al enviar un trabajo de invocación de modelos. La ubicación de S3 debe contener los siguientes elementos:
+ Al menos un archivo JSONL que defina las entradas del modelo. Un JSONL contiene filas de objetos JSON. El archivo JSONL debe terminar con la extensión .jsonl y tener el siguiente formato:

  ```
  { "recordId" : "alphanumeric string", "modelInput" : {JSON body} }
  ...
  ```

  Cada línea contiene un objeto JSON con un `recordId` campo y un `modelInput` campo. El formato del objeto `modelInput` JSON depende del tipo de invocación del modelo que elija al [crear el trabajo de inferencia por lotes](batch-inference-create.md). Si utiliza el `InvokeModel` tipo (predeterminado), el formato debe coincidir con el `body` campo del modelo que utilice en la `InvokeModel` solicitud (consulte[Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md)). Si usas el `Converse` tipo, el formato debe coincidir con el cuerpo de la solicitud de la API de [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).
**nota**  
Si omite el campo `recordId`, Amazon Bedrock lo agregará al resultado.
No se garantiza que el orden de los registros del archivo JSONL de salida coincida con el orden de los registros del archivo JSONL de entrada.
Al crear el [trabajo de inferencia en lotes](batch-inference-create.md), debe especificar el modelo que desea utilizar.
+ (Si el contenido de entrada contiene una ubicación de Amazon S3) Algunos modelos le permiten definir el contenido de la entrada como una ubicación de S3. Consulte [Ejemplo de entrada de vídeo para Amazon Nova](#batch-inference-data-ex-s3).
**aviso**  
Al usar S3 URIs en sus indicaciones, todos los recursos deben estar en el mismo depósito y carpeta de S3. El `InputDataConfig` parámetro debe especificar la ruta de la carpeta que contiene todos los recursos enlazados (como vídeos o imágenes), no solo un `.jsonl` archivo individual. Tenga en cuenta que las rutas de S3 distinguen entre mayúsculas y minúsculas, así que asegúrese de que URIs coinciden exactamente con la estructura de carpetas.

Asegúrese de que las entradas se ajusten a las cuotas de inferencia en lotes. Puede buscar las siguientes cuotas en [Cuotas de servicio de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock):
+ **Número mínimo de registros por trabajo de inferencia en lotes**: el número mínimo de registros (objetos JSON) en los archivos JSONL del trabajo.
+ **Registros por archivo de entrada para cada trabajo de inferencia en lotes**: el número máximo de registros (objetos JSON) en un solo archivo JSONL del trabajo.
+ **Registros por trabajo de inferencia en lotes**: el número mínimo de registros (objetos JSON) en los archivos JSONL del trabajo.
+ **Tamaño del archivo de entrada de inferencia en lotes**: el tamaño máximo de un archivo individual del trabajo.
+ **Tamaño del trabajo de inferencia en lotes**: el tamaño máximo acumulado de todos los archivos de entrada.

Para obtener información sobre cómo configurar sus entradas de inferencia en lotes, consulte los siguientes ejemplos:

## Ejemplo de entrada de texto para Anthropic Claude 3 Haiku
<a name="batch-inference-data-ex-text"></a>

Si tiene previsto ejecutar la inferencia en lotes con el formato de la [API Messages](model-parameters-anthropic-claude-messages.md) para el modelo Anthropic Claude 3 Haiku, puede proporcionar un archivo JSONL que contenga el siguiente objeto JSON como una de las líneas:

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
```

## Ejemplo de entrada de vídeo para Amazon Nova
<a name="batch-inference-data-ex-s3"></a>

Si tiene previsto realizar la inferencia en lotes en las entradas de vídeo utilizando los modelos Amazon Nova Lite o Amazon Nova Pro, tiene la opción de definir el vídeo en bytes o como una ubicación de S3 en el archivo JSONL. Por ejemplo, es posible que tenga un bucket de S3 cuya ruta sea `s3://batch-inference-input-bucket` y contenga los siguientes archivos:

```
s3://batch-inference-input-bucket/
├── videos/
│   ├── video1.mp4
│   ├── video2.mp4
│   ├── ...
│   └── video50.mp4
└── input.jsonl
```

Un ejemplo de registro del archivo `input.jsonl` sería el siguiente:

```
{
    "recordId": "RECORD01",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..."
                    },
                    {
                        "video": {
                            "format": "mp4",
                            "source": {
                                "s3Location": {
                                    "uri": "s3://batch-inference-input-bucket/videos/video1.mp4",
                                    "bucketOwner": "111122223333"
                                }
                            }
                        }
                    }
                ]
            }
        ]
    }
}
```

Al crear el trabajo de inferencia por lotes, debe especificar la ruta de la carpeta `s3://batch-inference-input-bucket` en su `InputDataConfig` parámetro. La inferencia por lotes procesará el `input.jsonl` archivo en esta ubicación, junto con cualquier recurso al que se haga referencia (como los archivos de vídeo de la `videos` subcarpeta).

Los siguientes recursos proporcionan más información sobre cómo enviar entradas de vídeo para la inferencia en lotes:
+ Para obtener información sobre cómo validar Amazon S3 URIs en una solicitud de entrada, consulte el [blog Amazon S3 URL Parsing](https://aws.amazon.com/blogs/devops/s3-uri-parsing-is-now-available-in-aws-sdk-for-java-2-x/).
+ Para obtener más información sobre cómo configurar los registros de invocación para la comprensión mediante vídeo con Nova, consulte las directrices sobre [las indicaciones Amazon Nova visuales](https://docs.aws.amazon.com/nova/latest/userguide/prompting-vision-prompting.html).

## Ejemplo de entrada inversa
<a name="batch-inference-data-ex-converse"></a>

Si estableces el tipo de invocación del modelo `Converse` al crear el trabajo de inferencia por lotes, el `modelInput` campo debe usar el formato de solicitud de la API de Converse. El siguiente ejemplo muestra un registro JSONL para un trabajo de inferencia por lotes de Converse:

```
{
    "recordId": "CALL0000001",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "Summarize the following call transcript: ..."
                    }
                ]
            }
        ],
        "inferenceConfig": {
            "maxTokens": 1024
        }
    }
}
```

Para ver la lista completa de campos admitidos en el cuerpo de la solicitud de Converse, consulta [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) en la referencia de la API.

En el siguiente tema se describe cómo configurar los permisos de acceso a S3 y de inferencia en lotes para que una identidad pueda llevar a cabo la inferencia en lotes.

# Permisos obligatorios para la inferencia por lotes
<a name="batch-inference-permissions"></a>

Para realizar la inferencia en lotes, debe configurar los permisos para las siguientes identidades de IAM:
+ La identidad de IAM que creará y administrará los trabajos de inferencia en lotes.
+ El [rol de servicio](security-iam-sr.md) de inferencia en lotes que adopta Amazon Bedrock para realizar acciones en su nombre.

Para obtener información sobre cómo configurar los permisos para cada identidad, consulte los siguientes temas:

**Topics**
+ [Permisos necesarios para que una identidad de IAM envíe y administre trabajos de inferencia en lotes](#batch-inference-permissions-user)
+ [Permisos necesarios para que un rol de servicio realice la inferencia en lotes](#batch-inference-permissions-service)

## Permisos necesarios para que una identidad de IAM envíe y administre trabajos de inferencia en lotes
<a name="batch-inference-permissions-user"></a>

Para que una identidad de IAM utilice esta característica, debe configurarla con los permisos necesarios. Para ello, siga uno de estos pasos:
+ Para permitir que una identidad lleve a cabo todas las acciones de Amazon Bedrock, adjunte la [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)política a la identidad. Si hace esto, puede omitir este tema. Esta opción es menos segura.
+ Como práctica recomendada de seguridad, debe conceder a una identidad únicamente las acciones necesarias. En este tema se describen los permisos que necesita para esta característica.

Para restringir los permisos solo a las acciones que se utilizan para la inferencia en lotes, asocie la siguiente política basada en identidades a una identidad de IAM:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "BatchInference",
            "Effect": "Allow",
            "Action": [  
                "bedrock:ListFoundationModels",
                "bedrock:GetFoundationModel",
                "bedrock:ListInferenceProfiles",
                "bedrock:GetInferenceProfile",
                "bedrock:ListCustomModels",
                "bedrock:GetCustomModel",
                "bedrock:TagResource", 
                "bedrock:UntagResource", 
                "bedrock:ListTagsForResource",
                "bedrock:CreateModelInvocationJob",
                "bedrock:GetModelInvocationJob",
                "bedrock:ListModelInvocationJobs",
                "bedrock:StopModelInvocationJob"
            ],
            "Resource": "*"
        }
    ]   
}
```

------

Para restringir aún más los permisos, puede omitir acciones o puede especificar recursos y claves de condición para filtrar los permisos. Para obtener más información sobre las acciones, los recursos y las claves de condición, consulte los siguientes temas en la *Referencia de autorizaciones de servicio*:
+ [Acciones definidas por Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions): obtenga información sobre las acciones, los tipos de recursos a los que puede aplicarlas en el campo `Resource` y las claves de condición que puede usar para filtrar los permisos en el campo `Condition`.
+ [Tipos de recursos definidos por Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies): obtenga información sobre los tipos de recursos de Amazon Bedrock.
+ [Claves de condición de Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys): obtenga información sobre las claves de condición de Amazon Bedrock.

El siguiente es un ejemplo que reduce el alcance de los permisos para la inferencia en lotes para permitir que solo un usuario con el ID de cuenta `123456789012` pueda crear trabajos de inferencia en lotes en la región `us-west-2` con el modelo Anthropic Claude 3 Haiku:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "CreateBatchInferenceJob",
            "Effect": "Allow",
            "Action": [
                "bedrock:CreateModelInvocationJob"
            ],
            "Resource": [
                "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                "arn:aws:bedrock:us-west-2:123456789012:model-invocation-job/*"
            ]
        }
    ]
}
```

------

## Permisos necesarios para que un rol de servicio realice la inferencia en lotes
<a name="batch-inference-permissions-service"></a>

La inferencia en lotes la realiza un [rol de servicio](security-iam-sr.md) que adopta su identidad para realizar acciones en su nombre. Puede crear un rol de servicio de las siguientes formas:
+ Deje que Amazon Bedrock cree automáticamente un rol de servicio con los permisos necesarios para usted mediante la Consola de administración de AWS. Puede seleccionar esta opción al crear un trabajo de inferencia en lotes.
+ Cree un rol de servicio personalizado para Amazon Bedrock utilizando AWS Identity and Access Management y adjunte los permisos necesarios. Cuando envíe el trabajo de inferencia en lotes, especifique este rol. Para obtener más información acerca de cómo crear un rol de servicio personalizado para la inferencia en lotes, consulte [Creación de un rol de servicio personalizado para la inferencia en lotes](batch-iam-sr.md). Para obtener información más general acerca de la creación de roles de servicio, consulte [Creación de un rol para delegar permisos a un Servicio de AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_create_for-service.html) en la Guía del usuario de IAM.

**importante**  
Si el depósito de S3 en el que [cargó los datos para la inferencia de lotes](batch-inference-data.md) se encuentra en otroCuenta de AWS, debe configurar una política de depósito de S3 para permitir que el rol de servicio acceda a los datos. Debe configurar esta política de forma manual, aunque utilice la consola para crear un rol de servicio de forma automática. Para obtener información sobre cómo configurar una política de bucket de S3 para los recursos de Amazon Bedrock, consulte [Asociación de una política de bucket a un bucket de Amazon S3 para permitir el acceso de otra cuenta](s3-bucket-access.md#s3-bucket-access-cross-account).
Los modelos básicos de Amazon Bedrock son recursos AWS gestionados que no se pueden utilizar con condiciones de política de IAM que exijan la propiedad del cliente. Estos modelos son propiedad de clientes individuales y están operados por ellosAWS, y no pueden ser propiedad de ellos. Cualquier condición de la política de IAM que compruebe si los recursos son propiedad del cliente (como las condiciones que utilizan etiquetas de recursos, el identificador de la organización u otros atributos de propiedad) no se cumplirá si se aplica a los modelos básicos, lo que podría bloquear el acceso legítimo a estos servicios.  
Por ejemplo, si tu política incluye una `aws:ResourceOrgID` condición como la siguiente:  

  ```
  {
    "Condition": {
      "StringEqualsIgnoreCase": {
        "aws:ResourceOrgID": ["o-xxxxxxxx"]
      }
    }
  }
  ```
Su trabajo de inferencia por lotes fallará con`AccessDeniedException`. Elimine la `aws:ResourceOrgID` condición o cree declaraciones de políticas independientes para los modelos básicos.

# Protección de los trabajos de inferencia de lotes mediante una VPC
<a name="batch-vpc"></a>

Cuando ejecuta un trabajo de inferencia por lotes, el trabajo accede a su bucket de Amazon S3 para descargar los datos de entrada y escribir los datos de salida. Para controlar el acceso a sus datos, le recomendamos usar una nube privada virtual (VPC) con [Amazon VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html). Puede proteger aún más sus datos configurando la VPC para que no estén disponibles en internet y, en su lugar, crear un punto de conexión de interfaz de la VPC con [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/what-is-privatelink.html) para establecer una conexión privada con sus datos. Para obtener más información sobre cómo Amazon VPC se AWS PrivateLink integra con Amazon Bedrock, consulte. [Protección de los datos con Amazon VPC y AWS PrivateLink](usingVPC.md)

Realice los siguientes pasos para configurar y usar una VPC para las peticiones de entrada y las respuestas del modelo de salida para sus trabajos de inferencia por lotes.

**Topics**
+ [Configuración de la VPC para proteger los datos durante la inferencia por lotes](#batch-vpc-setup)
+ [Asociación de permisos de VPC a un rol de inferencia por lotes](#batch-vpc-role)
+ [Agregación de la configuración de VPC al enviar un trabajo de inferencia por lotes](#batch-vpc-config)

## Configuración de la VPC para proteger los datos durante la inferencia por lotes
<a name="batch-vpc-setup"></a>

Para configurar una VPC, siga los pasos que se indican en [Configurar una VPC](usingVPC.md#create-vpc). Para proteger aún más la VPC configurando un punto de conexión de VPC de S3 y utilizando políticas de IAM basadas en recursos para restringir el acceso al bucket de S3 que contiene sus datos de inferencia por lotes, siga los pasos que se indican en [(Ejemplo) Restricción del acceso a los datos de Amazon S3 mediante VPC](vpc-s3.md).

## Asociación de permisos de VPC a un rol de inferencia por lotes
<a name="batch-vpc-role"></a>

Cuando termine de configurar la VPC, asocie los siguientes permisos a su [rol de servicio de inferencia por lotes](batch-iam-sr.md) para permitirle acceder a la VPC. Modifique esta política para permitir el acceso solo a los recursos de VPC que necesita su trabajo. Sustituya los valores *subnet-ids* y *security-group-id* por los de su VPC.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "1",
            "Effect": "Allow",
            "Action": [
                "ec2:DescribeNetworkInterfaces",
                "ec2:DescribeVpcs",
                "ec2:DescribeDhcpOptions",
                "ec2:DescribeSubnets",
                "ec2:DescribeSecurityGroups"
            ],
            "Resource": [
                "*"
            ]
        },
        {
            "Sid": "2",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateNetworkInterface"
            ],
            "Resource": [
                "arn:aws:ec2:us-east-1:123456789012:network-interface/*",
                "arn:aws:ec2:us-east-1:123456789012:subnet/${{subnet-id}}",
                "arn:aws:ec2:us-east-1:123456789012:security-group/${{security-group-id}}"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/BedrockManaged": [
                        "true"
                    ]
                },
                "ArnEquals": {
                    "aws:RequestTag/BedrockModelInvocationJobArn": [
                        "arn:aws:bedrock:us-east-1:123456789012:model-invocation-job/*"
                    ]
                }
            }
        },
        {
            "Sid": "3",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateNetworkInterfacePermission",
                "ec2:DeleteNetworkInterface",
                "ec2:DeleteNetworkInterfacePermission"
            ],
            "Resource": [
                "*"
            ],
            "Condition": {
                "StringEquals": {
                    "ec2:Subnet": [
                        "arn:aws:ec2:us-east-1:123456789012:subnet/${{subnet-id}}"
                    ]
                },
                "ArnEquals": {
                    "ec2:ResourceTag/BedrockModelInvocationJobArn": [
                        "arn:aws:bedrock:us-east-1:123456789012:model-invocation-job/*"
                    ]
                }
            }
        },
        {
            "Sid": "4",
            "Effect": "Allow",
            "Action": [
                "ec2:CreateTags"
            ],
            "Resource": "arn:aws:ec2:us-east-1:123456789012:network-interface/*",
            "Condition": {
                "StringEquals": {
                    "ec2:CreateAction": [
                        "CreateNetworkInterface"
                    ]
                },
                "ForAllValues:StringEquals": {
                    "aws:TagKeys": [
                        "BedrockManaged",
                        "BedrockModelInvocationJobArn"
                    ]
                }
            }
        }
    ]
}
```

------

## Agregación de la configuración de VPC al enviar un trabajo de inferencia por lotes
<a name="batch-vpc-config"></a>

Tras configurar la VPC y los roles y permisos necesarios, tal y como se describe en las secciones anteriores, puede crear un trabajo de inferencia por lotes que utilice esta VPC.

**nota**  
Actualmente, al crear un trabajo de inferencia por lotes, solo puede usar una VPC a través de la API.

Al especificar las subredes y los grupos de seguridad de la VPC para un trabajo, Amazon Bedrock crea *interfaces de red elásticas* (ENIs) que se asocian a los grupos de seguridad de una de las subredes. ENIs permita que el trabajo de Amazon Bedrock se conecte a los recursos de su VPC. Para obtener información al respecto ENIs, consulte [Elastic Network Interfaces](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_ElasticNetworkInterfaces.html) en la Guía del *usuario de Amazon VPC*. Etiquetas de Amazon Bedrock con las ENIs que crea `BedrockManaged` y `BedrockModelInvocationJobArn` etiquetas.

Le recomendamos que proporcione al menos una subred en cada zona de disponibilidad.

Puede utilizar los grupos de seguridad para controlar el acceso de Amazon Bedrock a los recursos de su VPC.

Al enviar una [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)solicitud, puede incluir un `VpcConfig` parámetro de solicitud para especificar las subredes de VPC y los grupos de seguridad que se van a utilizar, como en el siguiente ejemplo.

```
"vpcConfig": { 
    "securityGroupIds": [
        "sg-0123456789abcdef0"
    ],
    "subnets": [
        "subnet-0123456789abcdef0",
        "subnet-0123456789abcdef1",
        "subnet-0123456789abcdef2"
    ]
}
```

# Crear un trabajo de inferencia por lotes
<a name="batch-inference-create"></a>

Tras configurar un bucket de Amazon S3 con archivos para ejecutar la inferencia de modelos, puede crear un trabajo de inferencia por lotes. Antes de empezar, compruebe que ha configurado los archivos de acuerdo con las instrucciones descritas en [Formateo y carga de los datos de la inferencia por lotes](batch-inference-data.md).

**nota**  
Para enviar un trabajo de inferencia por lotes mediante una VPC, debe usar la API. Seleccione la pestaña API para obtener información sobre cómo incluir la configuración de la VPC.

Para obtener más información sobre cómo crear un trabajo de inferencia en lotes, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ Console ]

**Creación de un trabajo de inferencia por lotes**

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, seleccione **Inferencia por lotes**.

1. En la sección **Trabajos de inferencia por lotes**, elija **Crear trabajo.**

1. En la sección **Detalles del trabajo**, asigne un **Nombre del trabajo** al trabajo de inferencia por lotes y seleccione un modelo para usarlo en el trabajo de inferencia por lotes eligiendo **Seleccionar modelo**.

1. En la sección **Tipo de invocación del modelo**, elija el formato de API para los datos de entrada. Elige **InvokeModel**si los datos de entrada utilizan formatos de solicitud específicos del modelo o elige **Converse** si los datos de entrada utilizan el formato de la API de Converse. El valor predeterminado es **InvokeModel**.

1. En la sección **Datos de entrada**, elija **Examinar S3** y seleccione la ubicación de S3 para el trabajo de inferencia en lotes. La inferencia en lotes procesa todos los archivos JSONL y los archivos de contenido adjuntos en esa ubicación de S3, tanto si la ubicación es una carpeta de S3 como un solo archivo JSONL.
**nota**  
Si los datos de entrada están en un bucket de S3 que pertenece a una cuenta diferente de aquella desde la que envía el trabajo, debe usar la API para enviar el trabajo de inferencia por lotes. Para obtener información sobre cómo hacerlo, seleccione la pestaña API de arriba.

1. En la sección **Datos de salida**, elija **Examinar S3** y seleccione una ubicación de S3 para almacenar los archivos de salida de su trabajo de inferencia por lotes. De forma predeterminada, los datos de salida se cifrarán mediante un Clave administrada de AWS. Para elegir una clave de KMS personalizada, seleccione **Personalizar configuración de cifrado (avanzada)** y elija una clave. Para obtener más información sobre el cifrado de los recursos de Amazon Bedrock y la configuración de una clave de KMS personalizada, consulte [Cifrado de datos](data-encryption.md).
**nota**  
Si tiene previsto escribir los datos de salida en un bucket de S3 que pertenece a una cuenta diferente de aquella desde la que envía el trabajo, debe usar la API para enviar el trabajo de inferencia por lotes. Para obtener información sobre cómo hacerlo, seleccione la pestaña API de arriba.

1. En la sección **Acceso al servicio**, seleccione una de las siguientes opciones:
   + **Usar un rol de servicio existente**: seleccione un rol de servicio en la lista desplegable. Para obtener más información sobre cómo configurar un rol personalizado con los permisos adecuados, consulte [Permisos obligatorios para la inferencia por lotes](batch-inference-permissions.md).
   + **Crear y usar un nuevo rol de servicio**: introduzca un nombre para el rol de servicio.

1. (Opcional) Para asociar etiquetas al trabajo de inferencia por lotes, expanda la sección **Etiquetas** y añada una clave y un valor opcional para cada etiqueta. Para obtener más información, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md).

1. Elija **Crear trabajo de inferencia por lotes**.

------
#### [ API ]

Para crear un trabajo de inferencia por lotes, envíe una [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)solicitud con un punto final del [plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Los siguientes campos son obligatorios:


****  

| Campo | Caso de uso | 
| --- | --- | 
| jobName | Para especificar un nombre para el trabajo. | 
| roleArn | Para especificar el Nombre de recurso de Amazon (ARN) del rol de servicio con permisos para crear y administrar el trabajo. Para obtener más información, consulte [Creación de un rol de servicio personalizado para la inferencia en lotes](batch-iam-sr.md). | 
| modelId | Para especificar el ID o el ARN del modelo que se va a utilizar en la inferencia. | 
| inputDataConfig | Especificar la ubicación de S3 que contiene los datos de entrada. La inferencia en lotes procesa todos los archivos JSONL y los archivos de contenido adjuntos en esa ubicación de S3, tanto si la ubicación es una carpeta de S3 como un solo archivo JSONL. Para obtener más información, consulte [Formateo y carga de los datos de la inferencia por lotes](batch-inference-data.md). | 
| outputDataConfig | Para especificar la ubicación de S3 en la que escribir las respuestas del modelo. | 

Los siguientes campos son opcionales:


****  

| Campo | Caso de uso | 
| --- | --- | 
| modelInvocationType | Para especificar el formato de API de los datos de entrada. ConverseConfigúrelo para usar el formato de la API de Converse o InvokeModel (predeterminado) para usar formatos de solicitud específicos del modelo. [Para obtener más información sobre el formato de solicitud de Converse, consulte Converse.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) | 
| timeoutDurationInHoras | Para especificar la duración en horas tras la cual se agotará el tiempo de espera del trabajo. | 
| etiquetas | Para especificar las etiquetas que desee asociar al trabajo. Para obtener más información, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md). | 
| vpcConfig | Para especificar la configuración de VPC que se va a utilizar para proteger los datos durante el trabajo. Para obtener más información, consulte [Protección de los trabajos de inferencia de lotes mediante una VPC](batch-vpc.md). | 
| clientRequestToken | Para garantizar que la solicitud de la API se complete solo una vez. Para obtener más información, consulte [Ensuring idempotency](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

La respuesta devuelve un `jobArn` que puede usar para hacer referencia al trabajo al realizar otras llamadas a la API relacionadas con la inferencia por lotes.

------

# Supervisión de los trabajos de inferencia por lotes
<a name="batch-inference-monitor"></a>

Además de las configuraciones que establezca para un trabajo de inferencia por lotes, también puede supervisar su progreso consultando su estado. Para obtener más información sobre los posibles estados de un trabajo, consulte el `status` campo de [ModelInvocationJobSummary](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ModelInvocationJobSummary.html).

También puede realizar un seguimiento del estado de un trabajo comparando el número total de registros y el número de registros que ya se han procesado. Estos números se encuentran en el archivo `manifest.json.out` del bucket de Amazon S3 que contiene los archivos de salida. Para obtener más información, consulte [Visualización de los resultados de un trabajo de inferencia por lotes](batch-inference-results.md). Para obtener información sobre cómo descargar un objeto de S3, consulte [Descarga de objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html).

**sugerencia**  
En lugar de sondear el estado del trabajo, puedes usar Amazon EventBridge para recibir notificaciones automáticas cuando un trabajo de inferencia por lotes se complete o cambie de estado. Para obtener más información, consulte [Supervisa los cambios en el estado laboral de Amazon Bedrock con Amazon EventBridgeSupervisa los cambios en los eventos](monitoring-eventbridge.md).

Para obtener más información sobre cómo ver los detalles de un trabajo de inferencia en lotes, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ Console ]

**Visualización de la información sobre los trabajos de inferencia por lotes**

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, seleccione **Inferencia por lotes**.

1. En la sección **Trabajos de inferencia por lotes**, elija un trabajo.

1. En la página de detalles del trabajo, puede ver información sobre la configuración del trabajo y supervisar su progreso consultando su **estado**.

------
#### [ API ]

Para obtener información sobre un trabajo de inferencia por lotes, envíe una [GetModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetModelInvocationJob.html)solicitud a un [punto final del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) e indique el ID o el ARN del trabajo en el campo. `jobIdentifier`

Para incluir información sobre varios trabajos de inferencia por lotes, envíe la [ListModelInvocationJobs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListModelInvocationJobs.html)solicitud con un punto final del [plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Puede especificar los siguientes parámetros opcionales:

La respuesta `GetModelInvocationJob` e `ListModelInvocationJobs` incluye un `modelInvocationType` campo que indica si el trabajo utiliza el formato `InvokeModel` o el formato `Converse` API.


****  

| Campo | Descripción breve | 
| --- | --- | 
| maxResults | El número máximo de resultados que se devuelven en una respuesta. | 
| nextToken | Si hay más resultados que el número que ha especificado en el campo maxResults, la respuesta devolverá un valor nextToken. Para ver el siguiente lote de resultados, envíe el valor nextToken en otra solicitud. | 

Para enumerar todas las etiquetas de un trabajo, envíe una [ListTagsForResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListTagsForResource.html)solicitud con un [punto final del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) e incluya el nombre del recurso de Amazon (ARN) del trabajo.

------

# Detención de un trabajo de inferencia por lotes
<a name="batch-inference-stop"></a>

Para obtener más información sobre cómo detener un trabajo de inferencia en lotes en curso, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ Console ]

**Detención de un trabajo de inferencia por lotes**

1. Inicie sesión en la Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola de Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. En el panel de navegación de la izquierda, seleccione **Inferencia por lotes**.

1. Seleccione un trabajo para ir a la página de detalles del trabajo o pulse el botón de opción situado junto al trabajo.

1. Elija **Stop run (Parar trabajo)**.

1. Revise el mensaje y seleccione **Detener trabajo**.
**nota**  
Se le cobrará por los tokens que ya se hayan procesado.

------
#### [ API ]

Para detener un trabajo de inferencia en lotes, envíe una solicitud [StopModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_StopModelInvocationJob.html) con un [punto de conexión del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) y proporcione el ID o el ARN del trabajo en el campo `jobIdentifier`.

Si el trabajo se detuvo correctamente, recibirá una respuesta HTTP 200.

------

# Visualización de los resultados de un trabajo de inferencia por lotes
<a name="batch-inference-results"></a>

Cuando el trabajo de inferencia por lotes se haya `Completed`, puede extraer los resultados del trabajo de inferencia por lotes de los archivos del bucket de Amazon S3 que especificó al crear el trabajo. Para obtener información sobre cómo descargar un objeto de S3, consulte [Descarga de objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html). El bucket de S3 especificado contendrá los siguientes archivos:

1. Amazon Bedrock genera un archivo JSONL de salida para cada archivo JSONL de entrada. Los archivos de salida contienen los resultados del modelo para cada entrada en el siguiente formato. Un objeto `error` reemplaza el campo `modelOutput` en cualquier línea en la que haya habido un error de inferencia. El formato del objeto `modelOutput` JSON depende del tipo de invocación del modelo. En el caso de los `InvokeModel` trabajos, el formato coincide con el `body` campo de la `InvokeModel` respuesta (consulte[Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md)). En el caso de los `Converse` trabajos, el formato coincide con el cuerpo de la respuesta de la API de [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).

   ```
   { "recordId" : "string", "modelInput": {JSON body}, "modelOutput": {JSON body} }
   ```

   El ejemplo siguiente muestra un posible archivo de salida.

   ```
   { "recordId" : "3223593EFGH", "modelInput" : {"inputText": "Roses are red, violets are"}, "modelOutput" : {"inputTextTokenCount": 8, "results": [{"tokenCount": 3, "outputText": "blue\n", "completionReason": "FINISH"}]}}
   { "recordId" : "1223213ABCD", "modelInput" : {"inputText": "Hello world"}, "error" : {"errorCode" : 400, "errorMessage" : "bad request" }}
   ```

1. Un archivo `manifest.json.out` que contiene un resumen del trabajo de inferencia por lotes.

   ```
   {
       "totalRecordCount" : number, 
       "processedRecordCount" : number,
       "successRecordCount": number,
       "errorRecordCount": number,
       "inputTokenCount": number,
       "outputTokenCount" : number
   }
   ```

   Los campos se describen a continuación:
   + totalRecordCount — El número total de registros enviados al trabajo de inferencia por lotes.
   + processedRecordCount — El número de registros procesados en el trabajo de inferencia por lotes.
   + successRecordCount — El número de registros procesados correctamente por el trabajo de inferencia por lotes.
   + errorRecordCount — El número de registros del trabajo de inferencia por lotes que provocaron errores.
   + inputTokenCount — El número total de fichas de entrada enviadas al trabajo de inferencia por lotes.
   + outputTokenCount — El número total de fichas de salida generadas por el trabajo de inferencia por lotes.

# Ejemplos de código de inferencia en lotes
<a name="batch-inference-example"></a>

Los ejemplos de código de este capítulo muestran cómo crear un trabajo de inferencia en lotes, ver información sobre el mismo y detenerlo. En este ejemplo se utiliza el formato `InvokeModel` API. Para obtener información sobre el uso del formato de `Converse` API, consulte[Formateo y carga de los datos de la inferencia por lotes](batch-inference-data.md).

Seleccione un idioma para ver un ejemplo de código:

------
#### [ Python ]

Cree un archivo JSONL denominado *abc.jsonl* e incluya un objeto JSON para cada registro que contenga al menos el número mínimo de registros (consulte la sección **Número mínimo de registros por lote para el trabajo de inferencia**). *\$1Model\$1* [Cuotas para Amazon Bedrock](quotas.md) En este ejemplo, utilizará el modelo Anthropic Claude 3 Haiku. En el siguiente ejemplo se muestra el primer JSON de entrada del archivo:

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
... 
# Add records until you hit the minimum
```

Cree un bucket de S3 llamado *amzn-s3-demo-bucket-input* y cargue el archivo en él. A continuación, cree un bucket de S3 llamado *amzn-s3-demo-bucket-output* para escribir sus archivos de salida. Ejecute el siguiente fragmento de código para enviar un trabajo y obtener el resultado *jobArn* de la respuesta:

```
import boto3

bedrock = boto3.client(service_name="bedrock")

inputDataConfig=({
    "s3InputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl"
    }
})

outputDataConfig=({
    "s3OutputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-output/"
    }
})

response=bedrock.create_model_invocation_job(
    roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole",
    modelId="anthropic.claude-3-haiku-20240307-v1:0",
    jobName="my-batch-job",
    inputDataConfig=inputDataConfig,
    outputDataConfig=outputDataConfig
)

jobArn = response.get('jobArn')
```

Devuelva la parte `status` del trabajo.

```
bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']
```

Enumere los trabajos de inferencia por lotes que. *Failed*

```
bedrock.list_model_invocation_jobs(
    maxResults=10,
    statusEquals="Failed",
    sortOrder="Descending"
)
```

Detenga el trabajo que inició.

```
bedrock.stop_model_invocation_job(jobIdentifier=jobArn)
```

------

# Envío de un lote de peticiones con la API Batch de OpenAI
<a name="inference-openai-batch"></a>

Puede ejecutar un trabajo de inferencia en lotes mediante la [API Create batch de OpenAI](https://platform.openai.com/docs/api-reference/batch) con los modelos OpenAI de Amazon Bedrock.

Puede llamar a la API Create batch de OpenAI de las formas siguientes:
+ Realice una solicitud HTTP con un punto de conexión de Tiempo de ejecución de Amazon Bedrock.
+ Use una solicitud SDK de OpenAI con un punto de conexión de Tiempo de ejecución de Amazon Bedrock.

Elija un tema para obtener más información:

**Topics**
+ [Regiones y modelos compatibles con la API Batch de OpenAI](#inference-openai-batch-supported)
+ [Requisitos previos para usar la API Batch de OpenAI](#inference-openai-batch-prereq)
+ [Creación de un trabajo por lotes de OpenAI](#inference-openai-batch-create)
+ [Recuperación de un trabajo por lotes de OpenAI](#inference-openai-batch-retrieve)
+ [Enumeración de trabajos por lotes de OpenAI](#inference-openai-batch-list)
+ [Cancelación de un trabajo por lotes de OpenAI](#inference-openai-batch-cancel)

## Regiones y modelos compatibles con la API Batch de OpenAI
<a name="inference-openai-batch-supported"></a>

Puede usar la API OpenAI Create batch con todos los OpenAI modelos compatibles con Amazon Bedrock y en las AWS regiones que admiten estos modelos. Para obtener más información acerca de los modelos y regiones compatibles, consulte [Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md).

## Requisitos previos para usar la API Batch de OpenAI
<a name="inference-openai-batch-prereq"></a>

Para ver los requisitos previos para usar las operaciones de la API Batch de OpenAI, elija la pestaña que corresponda al método que prefiera y siga estos pasos:

------
#### [ OpenAI SDK ]
+ **Autenticación**: el SDK de OpenAI solo admite la autenticación con una clave de API de Amazon Bedrock. Genere una clave de API de Amazon Bedrock para autenticar la solicitud. Para obtener más información sobre las claves de API de Amazon Bedrock y cómo generarlas, consulte la sección de claves de API del capítulo Creación.
+ **Punto final**: busque el punto de enlace que corresponda a la AWS región para usarlo en los [puntos de enlace y las cuotas de Amazon Bedrock Runtime](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt). Si usa un AWS SDK, es posible que solo necesite especificar el código de región y no todo el punto final al configurar el cliente.
+ **Acceso al modelo**: solicite acceso a un modelo de Amazon Bedrock que sea compatible con esta característica. Para obtener más información, consulte [Administre el acceso a los modelos mediante el SDK y la CLI](model-access.md#model-access-modify).
+ **Instalar un SDK de OpenAI**: para obtener más información, consulte [Bibliotecas](https://platform.openai.com/docs/libraries) en la documentación de OpenAI.
+ **Archivo JSONL por lotes cargado en S3**: siga los pasos descritos en [Prepare your batch file](https://platform.openai.com/docs/guides/batch#1-prepare-your-batch-file) en la documentación de OpenAI para preparar el archivo por lotes con el formato correcto. A continuación, cárguelo en un bucket de Amazon S3.
+ **Permisos de IAM**: asegúrese de que dispone de las siguientes identidades de IAM con los permisos adecuados:
  + Una identidad de IAM con la que se autentique puede llevar a cabo operaciones de API relacionadas con la inferencia en lotes. Para obtener más información, consulte [Permisos necesarios para que una identidad de IAM envíe y administre trabajos de inferencia en lotes](batch-inference-permissions.md).
  + El rol de servicio de inferencia en lotes que utilice puede asumir su identidad, invocar el modelo OpenAI que usted usa y tener acceso al archivo JSONL por lotes en S3. Para obtener más información, consulte [Roles de servicio](security-iam-sr.md).

------
#### [ HTTP request ]
+ **Autenticación**: puede autenticarse con sus AWS credenciales o con una clave de API de Amazon Bedrock.

  Configure sus AWS credenciales o genere una clave de API de Amazon Bedrock para autenticar su solicitud.
  + Para obtener más información sobre cómo configurar sus AWS credenciales, consulte [Acceso programático con AWS](https://docs.aws.amazon.com/IAM/latest/UserGuide/security-creds-programmatic-access.html) credenciales de seguridad.
  + Para obtener más información sobre las claves de API de Amazon Bedrock y cómo generarlas, consulte la sección de claves de API del capítulo Creación.
+ **Punto final**: busque el punto de enlace que corresponda a la AWS región para usarlo en los [puntos de enlace y las cuotas de Amazon Bedrock Runtime](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt). Si usa un AWS SDK, es posible que solo necesite especificar el código de región y no todo el punto final al configurar el cliente.
+ **Acceso al modelo**: solicite acceso a un modelo de Amazon Bedrock que sea compatible con esta característica. Para obtener más información, consulte [Administre el acceso a los modelos mediante el SDK y la CLI](model-access.md#model-access-modify).
+ **Archivo JSONL por lotes cargado en S3**: siga los pasos descritos en [Prepare your batch file](https://platform.openai.com/docs/guides/batch#1-prepare-your-batch-file) en la documentación de OpenAI para preparar el archivo por lotes con el formato correcto. A continuación, cárguelo en un bucket de Amazon S3.
+ **Permisos de IAM**: asegúrese de que dispone de las siguientes identidades de IAM con los permisos adecuados:
  + Una identidad de IAM con la que se autentique puede llevar a cabo operaciones de API relacionadas con la inferencia en lotes. Para obtener más información, consulte [Permisos necesarios para que una identidad de IAM envíe y administre trabajos de inferencia en lotes](batch-inference-permissions.md).
  + El rol de servicio de inferencia en lotes que utilice puede asumir su identidad, invocar el modelo OpenAI que usted usa y tener acceso al archivo JSONL por lotes en S3. Para obtener más información, consulte [Roles de servicio](security-iam-sr.md).

------

## Creación de un trabajo por lotes de OpenAI
<a name="inference-openai-batch-create"></a>

Para obtener información sobre la API Create chat completion de OpenAI, consulte los siguientes recursos en la documentación de OpenAI:
+ [Create batch](https://platform.openai.com/docs/api-reference/batch/create): detalla tanto la solicitud como la respuesta.
+ [The request output object](https://platform.openai.com/docs/api-reference/batch/request-output): detalla los campos de la salida generada por el trabajo por lotes. Consulte esta documentación cuando interprete los resultados en su bucket de S3.

**Creación de la solicitud**  
Al crear la solicitud de inferencia en lotes, tenga en cuenta los siguientes campos y valores específicos de Amazon Bedrock:

**Encabezados de solicitudes**
+ X-Amzn-Bedrock-RoleArn (obligatorio): el nombre de recurso de Amazon (ARN) de la función del servicio de inferencia por lotes. Para obtener más información, consulte [Creación de un rol de servicio personalizado para la inferencia en lotes](batch-iam-sr.md)
+ X-Amzn-Bedrock-ModelId (obligatorio): el ID del modelo básico que se va a utilizar en la inferencia. Para obtener más información, consulte [Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md).
+ X-Amzn-Bedrock-OutputEncryptionKeyId (opcional): el ID de una clave KMS que desea usar para cifrar los archivos S3 de salida. Para obtener más información, consulte [Especificar el cifrado del lado del servidor con AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/specifying-kms-encryption.html)).
+ X-Amzn-Bedrock-Tags (opcional): un diccionario de claves y valores que indican las etiquetas que se deben adjuntar a la salida. Para obtener más información, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md).

**Parámetros del cuerpo de la solicitud:**
+ endpoint: debe ser `v1/chat/completions`.
+ input\$1file\$1id: especifique el URI de S3 del archivo JSONL por lotes.

**Búsqueda de los resultados generados**  
La respuesta de creación incluye un ID de lote. Los resultados y el registro de errores del trabajo de inferencia en lotes se escriben en la carpeta de S3 que contiene el archivo de entrada. Los resultados estarán en una carpeta con el mismo nombre que el ID del lote, como en la siguiente estructura de carpetas:

```
---- {batch_input_folder}
        |---- {batch_input}.jsonl
        |---- {batch_id}
	           |---- {batch_input}.jsonl.out
	           |---- {batch_input}.jsonl.err
```

Para ver ejemplos del uso de la API Create batch de OpenAI con diferentes métodos, seleccione la pestaña que corresponda al método que prefiera y siga los pasos:

------
#### [ OpenAI SDK (Python) ]

Para crear un trabajo por lotes con el SDK de OpenAI, haga lo siguiente:

1. Importe el SDK de OpenAI y configure el cliente con los siguientes campos:
   + `base_url`: añada el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1`, como en el siguiente formato:

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key`: especifique una clave de API de Amazon Bedrock.
   + `default_headers`: si necesita incluir algún encabezado, puede incluirlo como pares de clave-valor en este objeto. También puede especificar los encabezados en los `extra_headers` cuando realice una llamada a la API específica.

1. Use el método [batches.create()](https://platform.openai.com/docs/api-reference/batch/create) con el cliente.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ api\$1key: reemplázala por *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* tu clave de API actual.
+ X-Amzn-BedrockRoleArn — *arn:aws:iam::123456789012:role/BatchServiceRole* Sustitúyala por la función de servicio de inferencia por lotes real que configuraste.
+ input\$1file\$1id: *s3://amzn-s3-demo-bucket/openai-input.jsonl* sustitúyelo por el URI de S3 real al que cargó el archivo JSONL por lotes.

En el ejemplo, se llama a la API Create batch job de OpenAI en `us-west-2` y se incluye un fragmento de los metadatos.

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK", # Replace with actual API key
    default_headers={
        "X-Amzn-Bedrock-RoleArn": "arn:aws:iam::123456789012:role/BatchServiceRole" # Replace with actual service role ARN
    }
)

job = client.batches.create(
    input_file_id="s3://amzn-s3-demo-bucket/openai-input.jsonl", # Replace with actual S3 URI
    endpoint="/v1/chat/completions",
    completion_window="24h",
    metadata={
        "description": "test input"
    },
    extra_headers={
        "X-Amzn-Bedrock-ModelId": "openai.gpt-oss-20b-1:0",
    }
)
print(job)
```

------
#### [ HTTP request ]

Para crear una finalización de chat con una solicitud HTTP directa, haga lo siguiente:

1. Utilice el método POST y especifique la URL añadiendo el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1/batches`, como en el siguiente formato:

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches
   ```

1. Especifique sus AWS credenciales o una clave de API de Amazon Bedrock en el `Authorization` encabezado.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ Autorización: *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* reemplácela por su clave de API actual.
+ X-Amzn-BedrockRoleArn — *arn:aws:iam::123456789012:role/BatchServiceRole* Sustitúyala por la función de servicio de inferencia por lotes real que configuraste.
+ input\$1file\$1id: *s3://amzn-s3-demo-bucket/openai-input.jsonl* sustitúyelo por el URI de S3 real al que cargó el archivo JSONL por lotes.

En el siguiente ejemplo se llama a la API Create batch job en `us-west-2` y se incluye un fragmento de los metadatos:

```
curl -X POST 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK' \  
    -H 'Content-Type: application/json' \
    -H 'X-Amzn-Bedrock-ModelId: openai.gpt-oss-20b-1:0' \
    -H 'X-Amzn-Bedrock-RoleArn: arn:aws:iam::123456789012:role/BatchServiceRole' \  
    -d '{    
    "input_file_id": "s3://amzn-s3-demo-bucket/openai-input.jsonl",    
    "endpoint": "/v1/chat/completions",    
    "completion_window": "24h",
    "metadata": {"description": "test input"}  
}'
```

------

## Recuperación de un trabajo por lotes de OpenAI
<a name="inference-openai-batch-retrieve"></a>

Para obtener más información sobre la solicitud y la respuesta de la API Retrieve batch de OpenAI, consulte [Retrieve batch](https://platform.openai.com/docs/api-reference/batch/retrieve).

Al realizar la solicitud, especifique el ID del trabajo por lotes del que desea obtener información. La respuesta devuelve información sobre un trabajo por lotes, incluidos los nombres de los archivos de salida y error, que puede buscar en los buckets de S3.

Para ver ejemplos del uso de la API Retrieve batch de OpenAI con diferentes métodos, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ OpenAI SDK (Python) ]

Para recuperar un trabajo por lotes con el SDK de OpenAI, haga lo siguiente:

1. Importe el SDK de OpenAI y configure el cliente con los siguientes campos:
   + `base_url`: añada el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1`, como en el siguiente formato:

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key`: especifique una clave de API de Amazon Bedrock.
   + `default_headers`: si necesita incluir algún encabezado, puede incluirlo como pares de clave-valor en este objeto. También puede especificar los encabezados en los `extra_headers` cuando realice una llamada a la API específica.

1. Use el método [batches.retrieve()](https://platform.openai.com/docs/api-reference/batch/create) con el cliente y especifique el ID del lote del que quiere recuperar la información.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ api\$1key: reemplázala por tu clave de API actual. *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK*
+ batch\$1id: reemplázala por tu clave de API *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* actual.

En el ejemplo, se llama a la OpenAI API Retrieve Batch Job `us-west-2` en un trabajo por lotes cuyo ID es. *batch\$1abc123*

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.retrieve(batch_id="batch_abc123") # Replace with actual ID

print(job)
```

------
#### [ HTTP request ]

Para recuperar un trabajo por lotes con una solicitud HTTP directa, haga lo siguiente:

1. Utilice el método GET y especifique la URL añadiendo el prefijo del punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1/batches/${batch_id}`, como en el siguiente formato:

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches/batch_abc123
   ```

1. Especifique sus AWS credenciales o una clave de API de Amazon Bedrock en el `Authorization` encabezado.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ Autorización: *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* reemplácela por su clave de API actual.
+ batch\$1abc123: en la ruta, sustituya este valor por el ID real de su trabajo por lotes.

En el siguiente ejemplo, se llama OpenAI a la API Retrieve batch `us-west-2` en un trabajo por lotes cuyo ID es*batch\$1abc123*.

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches/batch_abc123' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK'
```

------

## Enumeración de trabajos por lotes de OpenAI
<a name="inference-openai-batch-list"></a>

Para obtener más información sobre la solicitud y la respuesta de la API List batch de OpenAI, consulte [List batch](https://platform.openai.com/docs/api-reference/batch/list). La respuesta devuelve una matriz de información sobre sus trabajos por lotes.

Al realizar la solicitud, puede incluir parámetros de consulta para filtrar los resultados. La respuesta devuelve información sobre un trabajo por lotes, incluidos los nombres de los archivos de salida y error, que puede buscar en los buckets de S3.

Para ver ejemplos del uso de la API List batches de OpenAI con diferentes métodos, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ OpenAI SDK (Python) ]

Para mostrar los trabajos por lotes con el SDK de OpenAI, haga lo siguiente:

1. Importe el SDK de OpenAI y configure el cliente con los siguientes campos:
   + `base_url`: añada el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1`, como en el siguiente formato:

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key`: especifique una clave de API de Amazon Bedrock.
   + `default_headers`: si necesita incluir algún encabezado, puede incluirlo como pares de clave-valor en este objeto. También puede especificar los encabezados en los `extra_headers` cuando realice una llamada a la API específica.

1. Use el método [batches.list()](https://platform.openai.com/docs/api-reference/batch/list) con el cliente. Puede incluir los siguientes parámetros opcionales:

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ api\$1key: reemplázala por *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* tu clave de API actual.

En el ejemplo, se llama a la API List batch jobs de OpenAI en `us-west-2` y se especifica un límite de devolución de dos resultados.

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.list(limit=2)

print(job)
```

------
#### [ HTTP request ]

Para mostrar los trabajos por lotes con una solicitud HTTP directa, haga lo siguiente:

1. Utilice el método GET y especifique la URL añadiendo el prefijo del punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1/batches`, como en el siguiente formato:

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches
   ```

   Puede incluir cualquiera de los parámetros opcionales.

1. Especifique sus AWS credenciales o una clave de API de Amazon Bedrock en el `Authorization` encabezado.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ Autorización: *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* reemplácela por su clave de API actual.

En el siguiente ejemplo, se llama a la API List batches de OpenAI en `us-west-2` y se especifica un límite de devolución de dos resultados.

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches?limit=2' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK' \
```

------

## Cancelación de un trabajo por lotes de OpenAI
<a name="inference-openai-batch-cancel"></a>

Para obtener más información sobre la solicitud y la respuesta de la API Cancel batch de OpenAI, consulte [Cancel batch](https://platform.openai.com/docs/api-reference/batch/cancel). La respuesta devuelve información sobre el trabajo por lotes cancelado.

Al realizar la solicitud, especifique el ID del trabajo por lotes que desea cancelar.

Para ver ejemplos del uso de la API Cancel batch de OpenAI con diferentes métodos, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ OpenAI SDK (Python) ]

Para cancelar un trabajo por lotes con el SDK de OpenAI, haga lo siguiente:

1. Importe el SDK de OpenAI y configure el cliente con los siguientes campos:
   + `base_url`: añada el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1`, como en el siguiente formato:

     ```
     https://${bedrock-runtime-endpoint}/openai/v1
     ```
   + `api_key`: especifique una clave de API de Amazon Bedrock.
   + `default_headers`: si necesita incluir algún encabezado, puede incluirlo como pares de clave-valor en este objeto. También puede especificar los encabezados en los `extra_headers` cuando realice una llamada a la API específica.

1. Use el método [batches.cancel()](https://platform.openai.com/docs/api-reference/batch/cancel) con el cliente y especifique el ID del lote del que quiere recuperar la información.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ api\$1key: reemplázala por *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* tu clave de API actual.
+ batch\$1id: reemplázala por tu clave de API *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* actual.

El ejemplo llama a la API OpenAI Cancelar trabajos por lotes `us-west-2` en un trabajo por lotes cuyo ID es. *batch\$1abc123*

```
from openai import OpenAI

client = OpenAI(
    base_url="https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1", 
    api_key="$AWS_BEARER_TOKEN_BEDROCK" # Replace with actual API key
)

job = client.batches.cancel(batch_id="batch_abc123") # Replace with actual ID

print(job)
```

------
#### [ HTTP request ]

Para cancelar los trabajos por lotes con una solicitud HTTP directa, haga lo siguiente:

1. Utilice el método POST y especifique la URL añadiendo el punto de conexión de Tiempo de ejecución de Amazon Bedrock delante de `/openai/v1/batches/${batch_id}/cancel`, como en el siguiente formato:

   ```
   https://${bedrock-runtime-endpoint}/openai/v1/batches/batch_abc123/cancel
   ```

1. Especifique sus AWS credenciales o una clave de API de Amazon Bedrock en el `Authorization` encabezado.

Antes de ejecutar el siguiente ejemplo, reemplace los marcadores de posición en los siguientes campos:
+ Autorización: *\$1AWS\$1BEARER\$1TOKEN\$1BEDROCK* reemplácela por su clave de API actual.
+ batch\$1abc123: en la ruta, sustituya este valor por el ID real de su trabajo por lotes.

En el siguiente ejemplo, se llama a la API de OpenAI cancelación de lotes `us-west-2` en un trabajo por lotes cuyo ID es*batch\$1abc123*.

```
curl -X GET 'https://bedrock-runtime.us-west-2.amazonaws.com/openai/v1/batches/batch_abc123/cancel' \
    -H 'Authorization: Bearer $AWS_BEARER_TOKEN_BEDROCK'
```

------

# Aumento del rendimiento con la inferencia entre regiones
<a name="cross-region-inference"></a>

Con la inferencia entre regiones, puede elegir un perfil de inferencia entre regiones vinculado a una región geográfica específica (como EE. UU. o la UE) o puede elegir un perfil de inferencia global. Cuando elige un perfil de inferencia vinculado a una zona geográfica específica, Amazon Bedrock selecciona automáticamente el anuncio óptimo Región de AWS dentro de esa zona geográfica para procesar su solicitud de inferencia. Con los perfiles de inferencia globales, Amazon Bedrock selecciona automáticamente la Región de AWS comercial óptima para procesar la solicitud, lo que optimiza los recursos disponibles y aumenta el rendimiento del modelo.

Ambos tipos de inferencia entre regiones funcionan mediante [perfiles de inferencia](inference-profiles.md), que definen un modelo básico (FM) y hacia dónde se pueden Regiones de AWS dirigir las solicitudes. Al ejecutar la inferencia del modelo en el modo bajo demanda, es posible que sus solicitudes estén restringidas por Service Quotas o durante las horas de mayor uso. La inferencia entre regiones le permite gestionar sin problemas las ráfagas de tráfico no planificadas mediante el uso de la computación en diferentes áreas. Regiones de AWS

También puede aumentar el rendimiento de un modelo mediante la compra de [Rendimiento aprovisionado](prov-throughput.md). Los perfiles de inferencia actualmente no admiten el rendimiento aprovisionado.

Para ver las regiones y los modelos con los que puede utilizar los perfiles de inferencia para ejecutar inferencias entre regiones, consulte [Regiones y modelos compatibles con los perfiles de inferencia](inference-profiles-support.md).

**Topics**
+ [Elegir entre la inferencia geográfica y global entre regiones](#cross-region-inference-comparison)
+ [Consideraciones generales](#cross-region-inference-general-considerations)
+ [Inferencia geográfica entre regiones](geographic-cross-region-inference.md)
+ [Inferencia global interregional](global-cross-region-inference.md)

## Elegir entre la inferencia geográfica y global entre regiones
<a name="cross-region-inference-comparison"></a>

Amazon Bedrock ofrece dos tipos de perfiles de inferencia entre regiones, cada uno diseñado para distintos casos de uso y requisitos de conformidad:


| Característica | Inferencia geográfica entre regiones | Inferencia global entre regiones | Recomendación | 
| --- | --- | --- | --- | 
| Residencia de datos | Dentro de los límites geográficos (EE. UU., UE, APAC, etc.) | Cualquier región AWS comercial compatible en todo el mundo | Elija Geographic para conocer los requisitos de conformidad | 
| Rendimiento | Más alto que en una sola región | El más alto disponible | Elija Global para obtener el máximo rendimiento | 
| Costo | Precio estándar | Ahorros de aproximadamente un 10% | Elija Global para optimizar los costes | 
| Requisitos de SCP | Permita que todas las regiones de destino figuren en el perfil | Permitir "aws:RequestedRegion": "unspecified" | Configure en función de las políticas de su organización | 
| El más adecuado para lo siguiente: | Organizaciones con normas de residencia de datos | Organizations prioriza el costo y el rendimiento | Evalúe sus necesidades de cumplimiento y rendimiento | 

Elija la inferencia geográfica entre regiones cuando tenga requisitos de residencia de datos y necesite asegurarse de que el procesamiento de los datos se mantenga dentro de límites geográficos específicos. Elija la inferencia global entre regiones si desea obtener el máximo rendimiento y ahorrar costes sin restricciones geográficas.

## Consideraciones generales
<a name="cross-region-inference-general-considerations"></a>

Tenga en cuenta la siguiente información sobre la inferencia entre regiones:
+ El uso de la inferencia entre regiones no conlleva ningún costo de enrutamiento adicional. El precio se calcula en función de la región desde la que se llama al perfil de inferencia. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ La inferencia entre regiones puede dirigir las solicitudes a las Regiones de AWS que no esté habilitada manualmente. Cuenta de AWS No es necesaria la activación manual de regiones para que funcione la inferencia entre regiones.
+ Todos los datos transmitidos durante las operaciones entre regiones permanecen en la AWS red y no atraviesan la Internet pública. Los datos se cifran en tránsito entre. Regiones de AWS
+ Todas las solicitudes de inferencia entre regiones se registran CloudTrail en la región de origen. Busque el `additionalEventData.inferenceRegion` campo para identificar dónde se procesaron las solicitudes.
+ AWS Los servicios impulsados por Amazon Bedrock también pueden usar CRIS. Para obtener más información, consulte la documentación del servicio específico.

# Inferencia geográfica entre regiones
<a name="geographic-cross-region-inference"></a>

La inferencia geográfica entre regiones mantiene el procesamiento de datos dentro de límites geográficos específicos (EE. UU., UE, APAC, etc.) y, al mismo tiempo, proporciona un mayor rendimiento que la inferencia de una sola región. Esta opción es ideal para organizaciones con requisitos de residencia de datos y normas de conformidad.

## Consideraciones sobre la inferencia geográfica entre regiones
<a name="geographic-cris-considerations"></a>

Tenga en cuenta la siguiente información sobre la inferencia geográfica entre regiones:
+ Las solicitudes de inferencia entre regiones a un perfil de inferencia vinculado a una región geográfica (por ejemplo, EE. UU., UE y APAC) se mantienen dentro de la zona geográfica en la Regiones de AWS que residen originalmente los datos. Por ejemplo, una solicitud realizada en los EE. UU. se guarda dentro de los Regiones de AWS EE. UU. Aunque los datos solo permanecen almacenados en la región de origen, las peticiones de entrada y los resultados de salida pueden llevarse fuera de la región de origen durante la inferencia entre regiones. Todos los datos se transmitirán cifrados a través de la red segura de Amazon.
+ Para ver las cuotas predeterminadas de rendimiento entre regiones cuando se utilizan perfiles de inferencia vinculados a una zona geográfica (como EE. UU., UE y APAC), consulte los valores de **solicitudes de inferencia del modelo entre regiones por minuto para \$1\$1Model\$1** y **tokens de inferencia del modelo entre regiones por minuto para \$1\$1Model\$1** en [Cuotas de servicio de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) en la *Referencia general de AWS *.

## Requisitos de la política de IAM para la inferencia geográfica entre regiones
<a name="geographic-cris-iam-setup"></a>

Para permitir que un usuario o rol de IAM invoque un perfil de inferencia geográfica entre regiones, debe permitir el acceso a los siguientes recursos:

1. El perfil de inferencia interregional específico de una región geográfica (estos perfiles tienen prefijos geográficos como,,) `us` `eu` `apac`

1. El modelo básico en la región de origen

1. El modelo básico en todas las regiones de destino que figuran en el perfil geográfico

El siguiente ejemplo de política otorga los permisos necesarios para utilizar el modelo básico de Claude Sonnet 4.5 con un perfil de inferencia geográfica interregional para EE. UU., donde se encuentra la región de origen `us-east-1` y las regiones de destino`us-east-1`, `us-east-2` y: `us-west-2`

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "GrantGeoCrisInferenceProfileAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:us-east-1:<ACCOUNT_ID>:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0"
            ]
        },
        {
            "Sid": "GrantGeoCrisModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0",
                "arn:aws:bedrock:us-east-2::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0",
                "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-sonnet-4-5-20250929-v1:0"
            ],
            "Condition": {
                "StringEquals": {
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-east-1:<ACCOUNT_ID>:inference-profile/us.anthropic.claude-sonnet-4-5-20250929-v1:0"
                }
            }
        }
    ]
}
```

La primera declaración concede a la `bedrock:InvokeModel` API acceso al perfil de inferencia geográfica entre regiones para las solicitudes que se originen en la región solicitante. La segunda declaración otorga acceso mediante `bedrock:InvokeModel` API al modelo básico tanto en la región solicitante como en todas las regiones de destino que figuran en el perfil de inferencia.

## Requisitos de la política de control de servicios para la inferencia geográfica entre regiones
<a name="geographic-cris-scp-setup"></a>

Muchas organizaciones implementan controles de acceso regionales a través de políticas de control de servicios en AWS Organizations para garantizar la seguridad y el cumplimiento. Si la política de seguridad de su organización suele SCPs bloquear las regiones no utilizadas, debe asegurarse de que las condiciones SCP específicas de su región permitan el acceso a todas las regiones de destino que figuran en el perfil de inferencia geográfica interregional de su región de origen.

Para realizar una inferencia geográfica entre regiones, debe comprender la relación entre la región de origen (donde realiza la llamada a la API) y las regiones de destino (a las que se pueden enrutar las solicitudes). Consulta la documentación del perfil de inferencia para identificar todas las regiones de destino de tu región de origen y, a continuación, asegúrate de SCPs permitir el acceso a todas esas regiones de destino.

Por ejemplo, si llamas desde us-east-1 (región de origen) con el perfil geográfico estadounidense Anthropic Claude Sonnet 4.5, las solicitudes se pueden dirigir a us-east-1, us-east-2 y us-west-2 (regiones de destino). Si un SCP restringe el acceso solo a us-east-1, la inferencia entre regiones fallará al intentar enrutar a us-east-2 o us-west-2. Por lo tanto, debes incluir las tres regiones de destino en tu SCP, independientemente de la región desde la que llames.

Al configurar SCPs la exclusión regional, recuerde que bloquear cualquier región de destino en el perfil de inferencia impedirá que la inferencia entre regiones funcione correctamente, incluso si la región de origen sigue siendo accesible. Para conocer los requisitos de SCP para la inferencia global entre regiones, consulte. [Requisitos de la política de control de servicios para la inferencia global entre regiones](global-cross-region-inference.md#global-cris-scp-setup)

Para mejorar la seguridad, considere la posibilidad de utilizar la `bedrock:InferenceProfileArn` condición para limitar el acceso a perfiles de inferencia específicos. Esto le permite conceder acceso a las regiones requeridas y, al mismo tiempo, restringir los perfiles de inferencia que se pueden utilizar.

## Utilice la inferencia geográfica entre regiones
<a name="geographic-cris-usage"></a>

Para utilizar la inferencia geográfica entre regiones, debe incluir un [perfil de inferencia al ejecutar la inferencia](inference-profiles.md) del modelo de las siguientes maneras:
+ **Inferencia de modelos bajo demanda**[: especifique el ID del perfil de inferencia `modelId` al enviar una solicitud [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)una conversación o una. [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) Un perfil de inferencia define una o más regiones a las que puede enrutar las solicitudes de inferencia que se originan en la región de origen. El uso de la inferencia entre regiones aumenta el rendimiento y mejora la velocidad y el rendimiento al enrutar dinámicamente las solicitudes de invocación del modelo entre las regiones definidas en el perfil de inferencia. Factores de enrutamiento en el tráfico de usuarios, la demanda y la utilización de los recursos. Para obtener más información, consulte [Envío de solicitudes y generación de respuestas con inferencia de modelos](inference.md)
+ **Inferencia por lotes**: envíe las solicitudes de forma asíncrona con la inferencia por lotes especificando el ID del perfil de inferencia al enviar una solicitud. `modelId` [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) El uso de un perfil de inferencia le permite utilizar los recursos de computación en varias Regiones de AWS y lograr tiempos de procesamiento más rápidos para sus trabajos por lotes. Una vez finalizado el trabajo, podrá recuperar los archivos de salida del bucket de Amazon S3 en la región de origen.
+ **Agentes**: especifique el ID del perfil de inferencia en el campo `foundationModel` de una solicitud [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgent.html). Para obtener más información, consulte [Creación y configuración de agentes manualmente](agents-create.md).
+ **Generación de respuestas de la base de conocimiento**: puede utilizar la inferencia entre regiones al generar una respuesta después de consultar una base de conocimiento. Para obtener más información, consulte [Prueba de la base de conocimientos mediante consultas y respuestas](knowledge-base-test.md).
+ **Evaluación del modelo:** puede enviar un perfil de inferencia como modelo para evaluarlo al enviar un trabajo de evaluación del modelo. Para obtener más información, consulte [Evaluación del rendimiento de los recursos de Amazon Bedrock](evaluation.md).
+ **Administración de peticiones**: puede utilizar la inferencia entre regiones al generar una respuesta para una petición que haya creado en Administración de peticiones. Para obtener más información, consulte [Creación y almacenamiento de peticiones reutilizables con la administración de peticiones en Amazon Bedrock](prompt-management.md)
+ **Flujos de peticiones**: puede utilizar la inferencia entre regiones al generar una respuesta para una petición insertada en un nodo de petición de un flujo de peticiones. Para obtener más información, consulte [Cree un flujo de trabajo de IA end-to-end generativo con Amazon Bedrock Flows](flows.md).

Para aprender a usar un perfil de inferencia para enviar solicitudes de invocación de modelos entre regiones, consulte [Uso de un perfil de inferencia en la invocación del modelo](inference-profiles-use.md).

Para obtener más información sobre la inferencia entre regiones, consulte [Getting started with cross-region inference in Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/getting-started-with-cross-region-inference-in-amazon-bedrock/).

Para obtener información detallada sobre la inferencia global entre regiones, incluida la configuración de la IAM y la gestión de las cuotas de servicio, consulte. [Inferencia global interregional](global-cross-region-inference.md)

# Inferencia global interregional
<a name="global-cross-region-inference"></a>

La inferencia global entre regiones amplía la inferencia entre regiones más allá de los límites geográficos, lo que permite enrutar las solicitudes de inferencia a empresas comerciales de todo el Regiones de AWS mundo, optimiza los recursos disponibles y permite un mayor rendimiento del modelo.

## Ventajas de la inferencia global entre regiones
<a name="global-cris-benefits"></a>

La inferencia global entre regiones del Claude Sonnet 4.5 de Anthropic ofrece múltiples ventajas con respecto a los perfiles de inferencia transregional geográfica tradicionales:
+ **Rendimiento mejorado durante los picos de demanda: la** inferencia global entre regiones proporciona una mayor resiliencia durante los períodos de máxima demanda al enrutar automáticamente las solicitudes según la capacidad disponible. Regiones de AWS Este enrutamiento dinámico se realiza sin problemas, sin configuración ni intervención adicionales por parte de los desarrolladores. A diferencia de los enfoques tradicionales, que pueden requerir un equilibrio de carga complejo por parte del cliente Regiones de AWS, la inferencia global entre regiones gestiona los picos de tráfico de forma automática. Esto es especialmente importante para las aplicaciones críticas para la empresa, donde el tiempo de inactividad o la degradación del rendimiento pueden tener un impacto financiero o reputacional significativo.
+ **Rentabilidad: la** inferencia global interregional para el Claude Sonnet 4.5 de Anthropic ofrece un ahorro de aproximadamente un 10% en los precios de los tokens de entrada y salida en comparación con la inferencia geográfica entre regiones. El precio se calcula en función de la fuente a partir de la cual se realiza la Región de AWS solicitud (fuente). Región de AWS Esto significa que las organizaciones pueden beneficiarse de una mayor resiliencia con costes aún más bajos. Este modelo de precios convierte a la inferencia global entre regiones en una solución rentable para las organizaciones que buscan optimizar sus despliegues de IA generativa. Al mejorar la utilización de los recursos y permitir un mayor rendimiento sin costes adicionales, ayuda a las organizaciones a maximizar el valor de su inversión en Amazon Bedrock.
+ **Supervisión simplificada**: cuando se utiliza la inferencia global entre regiones CloudWatch y se CloudTrail siguen registrando las entradas de registro en su fuente Región de AWS, lo que simplifica la observabilidad y la administración. A pesar de que sus solicitudes se procesan en diferentes países del Regiones de AWS mundo, usted mantiene una visión centralizada del rendimiento y los patrones de uso de su aplicación a través de las herramientas de monitoreo que ya conoce. AWS 
+ **Flexibilidad de cuotas bajo demanda**: con la inferencia global entre regiones, sus cargas de trabajo ya no están limitadas por la capacidad regional individual. En lugar de restringirse a la capacidad disponible en una determinada capacidad Región de AWS, sus solicitudes se pueden redirigir de forma dinámica a toda la infraestructura global. AWS Esto proporciona acceso a un conjunto de recursos mucho mayor, lo que facilita la gestión de cargas de trabajo de gran volumen y picos de tráfico repentinos.

## Consideraciones sobre la inferencia global entre regiones
<a name="global-cris-considerations"></a>

Tenga en cuenta la siguiente información sobre la inferencia global entre regiones:
+ Los perfiles de inferencia globales entre regiones proporcionan un rendimiento superior al de un perfil de inferencia vinculado a una zona geográfica concreta. Un perfil de inferencia vinculado a una zona geográfica concreta proporciona un rendimiento superior que la inferencia en una sola región.
+ Para ver las cuotas predeterminadas de rendimiento entre regiones cuando se utilizan perfiles de inferencia globales, consulte los valores de **solicitudes de inferencia del modelo entre regiones globales por minuto para \$1\$1Model\$1** y **tokens de inferencia del modelo entre regiones globales para \$1\$1Model\$1** en [Cuotas de servicio de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) en la *Referencia general de AWS *.

  Puede solicitar, ver y administrar las cuotas del perfil de inferencia global entre regiones desde la [consola Service Quotas](https://console.aws.amazon.com/servicequotas/home/services/bedrock/quotas) o mediante los comandos de AWS CLI en su región de **origen**.

## Requisitos de la política de IAM para la inferencia global entre regiones
<a name="global-cris-iam-setup"></a>

Para habilitar la inferencia global entre regiones para sus usuarios, debe aplicar al rol una política de IAM dividida en tres partes. El siguiente es un ejemplo de una política de IAM para proporcionar un control detallado. `<REQUESTING REGION>`En el ejemplo, puede sustituir la política por la Región de AWS que está utilizando.

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "GrantGlobalCrisInferenceProfileRegionAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "<REQUESTING REGION>"
                }
            }
        },
        {
            "Sid": "GrantGlobalCrisInferenceProfileInRegionModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:<REQUESTING REGION>::foundation-model/<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "<REQUESTING REGION>",
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
                }
            }
        },
        {
            "Sid": "GrantGlobalCrisInferenceProfileGlobalModelAccess",
            "Effect": "Allow",
            "Action": "bedrock:InvokeModel",
            "Resource": [
                "arn:aws:bedrock:::foundation-model/<MODEL NAME>"
            ],
            "Condition": {
                "StringEquals": {
                    "aws:RequestedRegion": "unspecified",
                    "bedrock:InferenceProfileArn": "arn:aws:bedrock:<REQUESTING REGION>:<ACCOUNT>:inference-profile/global.<MODEL NAME>"
                }
            }
        }
    ]
}
```

La primera parte de la política permite el acceso al perfil de inferencia regional incluido en su solicitud Región de AWS. La segunda parte proporciona acceso al recurso FM regional. La tercera parte otorga acceso al recurso FM global, lo que permite la capacidad de enrutamiento entre regiones.

Al implementar estas políticas, asegúrese de que los tres nombres de recursos de Amazon (ARNs) de los recursos estén incluidos en sus declaraciones de IAM:
+ El perfil de inferencia regional ARN sigue el patrón. `arn:aws:bedrock:REGION:ACCOUNT:inference-profile/global.MODEL-NAME` Se utiliza para dar acceso al perfil de inferencia global en la fuente. Región de AWS
+ El FM regional utiliza`arn:aws:bedrock:REGION::foundation-model/MODEL-NAME`. Se usa para dar acceso a la FM de la fuente Región de AWS.
+ La FM global requiere`arn:aws:bedrock:::foundation-model/MODEL-NAME`. Esto se utiliza para dar acceso a la FM en diferentes entornos globales Regiones de AWS.

El ARN FM global no tiene ninguna Región de AWS cuenta especificada, lo cual es intencional y obligatorio para la funcionalidad entre regiones.

### Deshabilite la inferencia global entre regiones
<a name="global-cris-iam-disable"></a>

Puede elegir entre dos enfoques principales para implementar políticas de rechazo en el CRIS global para funciones específicas de IAM, cada uno con diferentes casos de uso e implicaciones:
+ **Eliminar una política de IAM**: el primer método consiste en eliminar una o más de las tres políticas de IAM obligatorias de los permisos de usuario. Como el CRIS global requiere que funcionen las tres políticas, si se elimina una política, se denegará el acceso.
+ **Implementar una política de denegación**: el segundo enfoque consiste en implementar una política de denegación explícita que se dirija específicamente a los perfiles de inferencia del CRIS global. Este método proporciona una documentación clara de su intención de seguridad y garantiza que, incluso si alguien añade accidentalmente las políticas de autorización requeridas más adelante, prevalecerá la denegación explícita. La política de denegación debe utilizar una `StringEquals` condición que coincida con el patrón. `"aws:RequestedRegion": "unspecified"` Este patrón se dirige específicamente a los perfiles de inferencia con el `global` prefijo.

Al implementar políticas de rechazo, es crucial entender que el CRIS global cambia el comportamiento del `aws:RequestedRegion` campo. Las políticas Región de AWS de rechazo tradicionales que utilizan `StringEquals` condiciones con Región de AWS nombres específicos, por ejemplo, no `"aws:RequestedRegion": "us-west-2"` funcionarán como se esperaba con el CRIS global, ya que el servicio establece este campo `global` en lugar de en el destino real. Región de AWS Sin embargo, como se mencionó anteriormente, `"aws:RequestedRegion": "unspecified"` tendrá el efecto de denegación.

## Requisitos de la política de control de servicios para la inferencia global entre regiones
<a name="global-cris-scp-setup"></a>

Para obtener conclusiones globales entre regiones, si la política de seguridad de su organización suele bloquear las regiones no utilizadas, debe actualizar las condiciones de SCP específicas de la región para permitir el acceso a ellas. SCPs `"aws:RequestedRegion": "unspecified"` Esta condición es específica de la inferencia global entre regiones de Amazon Bedrock y garantiza que las solicitudes se puedan enrutar a todas las regiones comerciales compatibles. AWS 

El siguiente ejemplo de SCP bloquea todas las llamadas a la AWS API fuera de las regiones aprobadas y, al mismo tiempo, permite las llamadas de inferencia transregional global de Amazon Bedrock que se utilizan `"unspecified"` como región para el enrutamiento global:

```
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "DenyAllOutsideApprovedRegions",
            "Effect": "Deny",
            "Action": "*",
            "Resource": "*",
            "Condition": {
                "StringNotEquals": {
                    "aws:RequestedRegion": [
                        "us-east-1",
                        "us-east-2",
                        "us-west-2",
                        "unspecified"
                    ]
                }
            }
        }
    ]
}
```

### Deshabilite la inferencia global entre regiones
<a name="global-cris-disable"></a>

Las organizaciones con requisitos de cumplimiento o residencia de datos deben evaluar si la inferencia global transregional se ajusta a su marco de cumplimiento, ya que las solicitudes pueden procesarse en otras regiones AWS comerciales compatibles. Para deshabilitar explícitamente la inferencia global entre regiones, implemente la siguiente política de SCP:

```
{
    "Effect": "Deny",
    "Action": "bedrock:*",
    "Resource": "*",
    "Condition": {
        "StringEquals": {
            "aws:RequestedRegion": "unspecified"
        },
        "ArnLike": {
            "bedrock:InferenceProfileArn": "arn:aws:bedrock:*:*:inference-profile/global.*"
        }
    }
}
```

Este SCP niega explícitamente la inferencia global entre regiones porque `"aws:RequestedRegion"` es `"unspecified"` y la `"ArnLike"` condición se dirige a los perfiles de inferencia con el `global` prefijo en el ARN.

### AWS Implementación de la Torre de Control
<a name="control-tower-scp"></a>

Se desaconseja encarecidamente la edición manual SCPs gestionada por AWS Control Tower, ya que puede provocar desviaciones. En su lugar, utilice los mecanismos proporcionados por la Torre de Control para gestionar estas excepciones. Los principios básicos implican ampliar los controles de denegación de regiones existentes o habilitar las regiones y, posteriormente, aplicar una política de bloqueo condicional y personalizada.

Para obtener una step-by-step guía detallada sobre la implementación de la inferencia entre regiones con Control Tower, consulte la entrada del blog Habilitar la [inferencia entre regiones de Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/) en entornos de múltiples cuentas. Esto incluye ampliar la denegación de regiones existente SCPs, habilitar las regiones denegadas con la personalización SCPs y utilizar las personalizaciones para la Torre de AWS Control (cFCT) para implementar la personalización SCPs como infraestructura como código.

## El límite de solicitudes aumenta para la inferencia global entre regiones
<a name="global-cris-quotas"></a>

Al utilizar perfiles de inferencia CRIS globales, puede utilizar el CRIS global de más de 20 fuentes compatibles. Regiones de AWS Como este será un límite global, las solicitudes para ver, administrar o aumentar las cuotas de los perfiles de inferencia globales entre regiones se deben realizar a través de la consola Service Quotas o la interfaz de línea de AWS comandos (AWS CLI) de la fuente solicitada. Región de AWS

Complete los siguientes pasos para solicitar un aumento del límite:

1. Inicie sesión en la consola de Service Quotas de su AWS cuenta.

1. En el panel de navegación, elija **Servicios de AWS **.

1. En la lista de servicios, busque y elija **Amazon Bedrock**.

1. En la lista de cuotas de Amazon Bedrock, utilice el filtro de búsqueda para encontrar las cuotas CRIS globales específicas. Por ejemplo:
   + Símbolos de inferencia del modelo global transregional por minuto para Anthropic Claude Sonnet 4.5 V1

1. Seleccione la cuota que quiere aumentar.

1. Elija **Solicitud de aumento a nivel de cuenta**.

1. Introduzca el nuevo valor de cuota que desee.

1. Elija **Solicitar** para enviar la solicitud.

Al calcular el aumento de cuota necesario, recuerda tener en cuenta la tasa de agotamiento, que se define como la velocidad a la que las fichas de entrada y salida se convierten en cuotas de uso simbólicas para el sistema de regulación. Los siguientes modelos tienen una **tasa de agotamiento de 5 veces para las fichas de salida (1 ficha de salida consume 5 fichas de** tus cuotas):
+ Claude Opus 4 antrópico
+ Soneto antrópico de Claude 4.5
+ Soneto antrópico de Claude 4
+ Soneto antrópico Claude 3.7

En todos los demás modelos, la velocidad de consumo es de **1:1** (1 token de salida consume 1 token de su cuota). En el caso de los tokens de entrada, la relación entre el token y la cuota es de 1:1. El cálculo del número total de tokens por solicitud es el siguiente:

`Input token count + Cache write input tokens + (Output token count x Burndown rate)`

## Utilice la inferencia global entre regiones
<a name="global-cris-usage"></a>

Para utilizar la inferencia global entre regiones con el Claude Sonnet 4.5 de Anthropic, los desarrolladores deben completar los siguientes pasos clave:
+ **Utilice el ID del perfil de inferencia global**: al realizar llamadas a la API a Amazon Bedrock, especifique el ID del perfil de inferencia Claude Sonnet 4.5 de Anthropic global (`global.anthropic.claude-sonnet-4-5-20250929-v1:0`) en lugar de un ID de modelo específico. Región de AWS
+ **Configure los permisos de IAM: conceda los permisos** de IAM adecuados para acceder al perfil de inferencia y al posible destino. FMs Regiones de AWS

Se admite la inferencia global entre regiones para:
+ Inferencia de modelos bajo demanda
+ Inferencia en lotes
+ Agentes
+ Evaluación de modelos
+ Administración de peticiones
+ Flujos rápidos

**nota**  
El perfil de inferencia global es compatible con la inferencia de modelos bajo demanda, la inferencia en lotes, los agentes, la evaluación de modelos, la administración de peticiones y los flujos de peticiones.

## Implemente la inferencia global entre regiones
<a name="global-cris-implementation"></a>

Implementar la inferencia global entre regiones con el Claude Sonnet 4.5 de Anthropic es sencillo y solo requiere algunos cambios en el código de la aplicación existente. El siguiente es un ejemplo de cómo actualizar el código en Python:

```
import boto3
import json
bedrock = boto3.client('bedrock-runtime', region_name='us-east-1')
model_id = "global.anthropic.claude-sonnet-4-5-20250929-v1:0"  
response = bedrock.converse(
    messages=[{"role": "user", "content": [{"text": "Explain cloud computing in 2 sentences."}]}],
    modelId=model_id,
)

print("Response:", response['output']['message']['content'][0]['text'])
print("Token usage:", response['usage'])
print("Total tokens:", response['usage']['totalTokens'])
```

# Configuración de un recurso de invocación de modelos mediante perfiles de inferencia
<a name="inference-profiles"></a>

Los *perfiles de inferencia* son un recurso de Amazon Bedrock que definen un modelo y una o más regiones a las que el perfil de inferencia puede enrutar las solicitudes de invocación del modelo. Puede utilizar los perfiles de inferencia para las siguientes tareas:
+ **Realice un seguimiento de las métricas de uso**: configure CloudWatch registros y envíe solicitudes de invocación del modelo con un perfil de inferencia de la aplicación para recopilar las métricas de uso para la invocación del modelo. Puede examinar estas métricas cuando consulte la información sobre el perfil de inferencia y utilizarlas para fundamentar sus decisiones. Para obtener más información sobre cómo configurar los CloudWatch registros, consulte. [Supervise la invocación de modelos mediante CloudWatch Logs y Amazon S3](model-invocation-logging.md)
+ **Usar etiquetas para supervisar los costos**: asocie etiquetas al perfil de inferencia de aplicación para realizar un seguimiento de los costos cuando envíe solicitudes de invocación de modelos bajo demanda. Para obtener más información sobre cómo utilizar las etiquetas para la asignación de costes, consulte [Organización y seguimiento de los AWS costes mediante etiquetas de asignación](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/cost-alloc-tags.html) de costes en la guía del AWS Billing usuario.
+ **Inferencia entre regiones**: aumente el rendimiento utilizando un perfil de inferencia que incluya varias Regiones de AWS. El perfil de inferencia distribuirá las solicitudes de invocación de modelos entre estas regiones para aumentar el rendimiento y la velocidad. Para obtener más información sobre la inferencia entre regiones, consulte [Aumento del rendimiento con la inferencia entre regiones](cross-region-inference.md).

Amazon Bedrock ofrece los siguientes tipos de perfiles de inferencia:
+ **Perfiles de inferencia entre regiones (definidos por el sistema)**: perfiles de inferencia que están predefinidos en Amazon Bedrock e incluyen varias regiones a las que se pueden dirigir las solicitudes de un modelo.
+ **Perfiles de inferencia de aplicaciones**: perfiles de inferencia que un usuario crea para realizar un seguimiento de los costos y el uso del modelo. Puede crear un perfil de inferencia que dirija las solicitudes de invocación del modelo a una o varias regiones:
  + Para crear un perfil de inferencia que haga un seguimiento de los costos y el uso de un modelo en una región, especifique el modelo fundacional de la región a la que desea que el perfil de inferencia dirija las solicitudes.
  + Para crear un perfil de inferencia que haga un seguimiento de los costos y el uso de un modelo en varias regiones, especifique el perfil de inferencia entre regiones (definido por el sistema) que defina el modelo y las regiones a las que desea que el perfil de inferencia dirija las solicitudes.

Puede usar perfiles de inferencia con las siguientes características para enrutar las solicitudes a varias regiones y realizar un seguimiento del uso y el costo de las solicitudes de invocación realizadas con estas características:
+ [Inferencia de modelos: utilice un perfil de inferencia al ejecutar la invocación de modelos; para ello, elija un perfil de inferencia en un entorno de juego en la consola de Amazon Bedrock o especifique el ARN del perfil de inferencia al llamar a las operaciones,, Converse y. [InvokeModel[InvokeModelWithResponseStream[ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) Para obtener más información, consulte [Envío de solicitudes y generación de respuestas con inferencia de modelos](inference.md).
+ Incrustación de vectores y generación de respuestas de la base de conocimiento: utilice un perfil de inferencia al generar una respuesta después de consultar una base de conocimiento o al analizar información no textual en un origen de datos. Para obtener más información, consulte [Prueba de la base de conocimientos mediante consultas y respuestas](knowledge-base-test.md) y [Opciones de análisis del origen de datos](kb-advanced-parsing.md).
+ Evaluación del modelo: puede enviar un perfil de inferencia como modelo para evaluarlo al enviar un trabajo de evaluación del modelo. Para obtener más información, consulte [Evaluación del rendimiento de los recursos de Amazon Bedrock](evaluation.md).
+ Administración de peticiones: puede utilizar un perfil de inferencia al generar una respuesta para una petición que haya creado en Administración de peticiones. Para obtener más información, consulte [Creación y almacenamiento de peticiones reutilizables con la administración de peticiones en Amazon Bedrock](prompt-management.md)
+ Flujos: puede utilizar un perfil de inferencia al generar una respuesta para una petición definida insertada en un nodo de peticiones de un flujo. Para obtener más información, consulte [Cree un flujo de trabajo de IA end-to-end generativo con Amazon Bedrock Flows](flows.md).

El precio del uso de un perfil de inferencia se calcula en función del precio del modelo en la región desde la que se llama al perfil de inferencia. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).

Para obtener más información sobre el rendimiento que puede ofrecer un perfil de inferencia entre regiones, consulte [Aumento del rendimiento con la inferencia entre regiones](cross-region-inference.md).

**Topics**
+ [Regiones y modelos compatibles con los perfiles de inferencia](inference-profiles-support.md)
+ [Requisitos previos para perfiles de inferencia](inference-profiles-prereq.md)
+ [Creación de un perfil de inferencia de aplicaciones](inference-profiles-create.md)
+ [Modificación de las etiquetas del perfil de inferencia de una aplicación](inference-profiles-modify.md)
+ [Visualización de información acerca de un perfil de inferencia](inference-profiles-view.md)
+ [Uso de un perfil de inferencia en la invocación del modelo](inference-profiles-use.md)
+ [Eliminación de un perfil de inferencia de aplicaciones](inference-profiles-delete.md)

# Regiones y modelos compatibles con los perfiles de inferencia
<a name="inference-profiles-support"></a>

Para obtener una lista de los códigos de región y los puntos de conexión compatibles con Amazon Bedrock, consulte [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bedrock_region). En este tema se describen los perfiles de inferencia predefinidos que puede utilizar y las regiones y los modelos que admiten perfiles de inferencia de aplicación.

**Topics**
+ [Perfiles de inferencia entre regiones admitidos](#inference-profiles-support-system)
+ [Regiones y modelos compatibles con los perfiles de inferencia de aplicación](#inference-profiles-support-user)

## Perfiles de inferencia entre regiones admitidos
<a name="inference-profiles-support-system"></a>

Puede realizar la [inferencia entre regiones](cross-region-inference.md) con perfiles de inferencia entre regiones (definidos por el sistema). La inferencia entre regiones le permite gestionar sin problemas las ráfagas de tráfico no planificadas mediante el uso de la computación en diferentes áreas. Regiones de AWS Con la inferencia entre regiones, puede distribuir el tráfico entre varias Regiones de AWS.

Los perfiles de inferencia entre regiones (definidos por el sistema) se nombran por el modelo que admiten y se definen por las regiones que admiten. Para saber cómo un perfil de inferencia entre regiones gestiona sus solicitudes, consulte las siguientes definiciones:
+ **Región de origen**: la región desde la que realiza la solicitud de API que especifica el perfil de inferencia.
+ **Región de destino**: una región a la que el servicio de Amazon Bedrock puede enrutar la solicitud de la región de origen.

Cuando invoca un perfil de inferencia entre regiones en Amazon Bedrock, su solicitud se origina en una región de origen y se enruta automáticamente a una de las regiones de destino definidas en ese perfil, lo que optimiza el rendimiento. Las regiones de destino de los perfiles de inferencia global entre regiones incluyen todas las regiones comerciales.

**nota**  
Las regiones de destino de un perfil de inferencia entre regiones pueden incluir *regiones opcionales, que son regiones* que debe habilitar de forma explícita a nivel de organización. Cuenta de AWS Para obtener más información, consulta Cómo [activar o desactivar tu cuenta Regiones de AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html). Si utiliza un perfil de inferencia entre regiones, su solicitud de inferencia se puede enrutar a cualquiera de las regiones de destino del perfil, incluso si no ha optado por utilizar dichas regiones en su cuenta.

Las políticas de control de servicios (SCPs) y las políticas AWS Identity and Access Management (IAM) funcionan en conjunto para controlar dónde se permite la inferencia entre regiones. Con SCPs ellas, puede controlar qué regiones puede utilizar Amazon Bedrock para la inferencia y, mediante las políticas de IAM, puede definir qué usuarios o roles tienen permiso para ejecutar la inferencia. Si alguna región de destino de un perfil de inferencia entre regiones está bloqueada en su perfil SCPs, la solicitud fallará aunque se sigan permitiendo otras regiones. Para garantizar un funcionamiento eficiente con la inferencia entre regiones, puede actualizar sus políticas SCPs y las de IAM para permitir todas las acciones de inferencia requeridas de Amazon Bedrock (por ejemplo, `bedrock:InvokeModel*` o`bedrock:CreateModelInvocationJob`) en todas las regiones de destino incluidas en el perfil de inferencia elegido. Para obtener más información, consulte [Activación de la inferencia entre regiones de Amazon Bedrock en entornos de varias cuentas](https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/).

**nota**  
Algunos perfiles de inferencia se enrutan a distintas regiones de destino en función de la región de origen desde la que se llamen. Por ejemplo, si llama a `us.anthropic.claude-3-haiku-20240307-v1:0` desde Este de EE. UU (Ohio), puede enrutar las solicitudes a `us-east-1`, `us-east-2` o`us-west-2`, pero si realiza la llamada desde Oeste de EE. UU. (Oregón), solo puede enrutar las solicitudes a `us-east-1` y `us-west-2`.

Para comprobar si las regiones de origen y destino tienen un perfil de inferencia, puede seguir uno de estos pasos:
+ Amplíe la sección correspondiente de la [lista de perfiles de inferencia entre regiones compatibles](#inference-profiles-support).
+ Envíe una [GetInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetInferenceProfile.html)solicitud con un [punto final del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) desde una región de origen y especifique el nombre del recurso de Amazon (ARN) o el ID del perfil de inferencia en el campo. `inferenceProfileIdentifier` El `models` campo de la respuesta se asigna a una lista de modelos ARNs en la que puede identificar cada región de destino.

**nota**  
El perfil de inferencia global entre regiones para un modelo específico puede cambiar con el tiempo, ya que AWS agrega más regiones comerciales en las que se pueden procesar sus solicitudes. Sin embargo, si un perfil de inferencia está vinculado a una región geográfica (como EE. UU., la UE o APAC), su lista de regiones de destino nunca cambiará. AWS podría crear nuevos perfiles de inferencia que incorporen nuevas regiones. Puede actualizar sus sistemas para utilizar estos perfiles de inferencia cambiando IDs la configuración por una nueva.  
El perfil de inferencia global entre regiones solo se admite actualmente en el modelo Anthropic Claude Sonnet 4 para las siguientes regiones de origen: Oeste de EE. UU. (Oregón), Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Europa (Irlanda) y Asia-Pacífico (Tokio). Las regiones de destino de los perfiles de inferencia global entre regiones incluyen todas las Regiones de AWS comerciales.

Amplíe una de las siguientes secciones para ver información sobre un perfil de inferencia entre regiones, las regiones de origen desde las que se puede llamar y las regiones de destino a las que puede dirigir las solicitudes.

### AMAZON NOVA 2 Lite GLOBAL
<a name="cross-region-ip-global.amazon.nova-2-lite-v1:0"></a>

Para llamar al perfil de inferencia GLOBAL de Amazon Nova 2 Lite, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
global.amazon.nova-2-lite-v1:0
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Opus 4.5, antropólogo mundial
<a name="cross-region-ip-global.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Para denominar al perfil de inferencia GLOBAL Anthropic Claude Opus 4.5, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-opus-4-5-20251101-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-claude.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### TwelveLabs PEGASUS GLOBAL v1.2
<a name="cross-region-ip-global.twelvelabs.pegasus-1-2-v1:0"></a>

Para llamar al perfil de inferencia GLOBAL TwelveLabs Pegasus v1.2, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
global.twelvelabs.pegasus-1-2-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-pegasus.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Global Anthropic Claude Haiku 4.5
<a name="cross-region-ip-global.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Para llamar al perfil de inferencia de Global Anthropic Claude Haiku 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-haiku-4-5-20251001-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Claude Opus 4.6, antrópico global
<a name="cross-region-ip-global.anthropic.claude-opus-4-6-v1"></a>

Para denominar al perfil de inferencia de Claude Opus 4.6 de Global Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-opus-4-6-v1
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Soneto antrópico global de Claude 4.6
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-6"></a>

Para denominar al perfil de inferencia del Soneto Antrópico Global de Claude 4.6, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-sonnet-4-6
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Global Claude Sonnet 4
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Para llamar al perfil de inferencia de Global Claude Sonnet 4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-sonnet-4-20250514-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Global Claude Sonnet 4.5
<a name="cross-region-ip-global.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia de Global Claude Sonnet 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
global.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| af-south-1 |  Commercial AWS Regions af-south-1  | 
| ap-east-2 |  Commercial AWS Regions ap-east-2  | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ap-southeast-5 |  Commercial AWS Regions ap-southeast-5  | 
| ap-southeast-7 |  Commercial AWS Regions ap-southeast-7  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| ca-west-1 |  Commercial AWS Regions ca-west-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| il-central-1 |  Commercial AWS Regions il-central-1  | 
| me-central-1 |  Commercial AWS Regions me-central-1  | 
| me-south-1 |  Commercial AWS Regions me-south-1  | 
| mx-central-1 |  Commercial AWS Regions mx-central-1  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Global Cohere Embed v4
<a name="cross-region-ip-global.cohere.embed-v4:0"></a>

Para llamar al perfil de inferencia de Global Claude Embed v4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
global.cohere.embed-v4:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-embed.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  Commercial AWS Regions ap-northeast-1  | 
| ap-northeast-2 |  Commercial AWS Regions ap-northeast-2  | 
| ap-northeast-3 |  Commercial AWS Regions ap-northeast-3  | 
| ap-south-1 |  Commercial AWS Regions ap-south-1  | 
| ap-south-2 |  Commercial AWS Regions ap-south-2  | 
| ap-southeast-1 |  Commercial AWS Regions ap-southeast-1  | 
| ap-southeast-2 |  Commercial AWS Regions ap-southeast-2  | 
| ap-southeast-3 |  Commercial AWS Regions ap-southeast-3  | 
| ap-southeast-4 |  Commercial AWS Regions ap-southeast-4  | 
| ca-central-1 |  Commercial AWS Regions ca-central-1  | 
| eu-central-1 |  Commercial AWS Regions eu-central-1  | 
| eu-central-2 |  Commercial AWS Regions eu-central-2  | 
| eu-north-1 |  Commercial AWS Regions eu-north-1  | 
| eu-south-1 |  Commercial AWS Regions eu-south-1  | 
| eu-south-2 |  Commercial AWS Regions eu-south-2  | 
| eu-west-1 |  Commercial AWS Regions eu-west-1  | 
| eu-west-2 |  Commercial AWS Regions eu-west-2  | 
| eu-west-3 |  Commercial AWS Regions eu-west-3  | 
| sa-east-1 |  Commercial AWS Regions sa-east-1  | 
| us-east-1 |  Commercial AWS Regions us-east-1  | 
| us-east-2 |  Commercial AWS Regions us-east-2  | 
| us-west-1 |  Commercial AWS Regions us-west-1  | 
| us-west-2 |  Commercial AWS Regions us-west-2  | 

### Amazon Nova 2 Lite de EE. UU.
<a name="cross-region-ip-us.amazon.nova-2-lite-v1:0"></a>

Para llamar al perfil de inferencia de Amazon Nova 2 Lite de EE. UU., especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.amazon.nova-2-lite-v1:0
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Anthropic Claude 3 Haiku
<a name="cross-region-ip-us.anthropic.claude-3-haiku-20240307-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3 Haiku, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-haiku-20240307-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3 Opus
<a name="cross-region-ip-us.anthropic.claude-3-opus-20240229-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3 Opus, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-opus-20240229-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3 Sonnet
<a name="cross-region-ip-us.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-sonnet-20240229-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3.5 Haiku
<a name="cross-region-ip-us.anthropic.claude-3-5-haiku-20241022-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3.5 Haiku, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-5-haiku-20241022-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Anthropic Claude 3.5 Sonnet
<a name="cross-region-ip-us.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3.5 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Anthropic Claude 3.5 Sonnet v2
<a name="cross-region-ip-us.anthropic.claude-3-5-sonnet-20241022-v2:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3.5 Sonnet v2, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-5-sonnet-20241022-v2:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Anthropic Claude 3.7 Sonnet
<a name="cross-region-ip-us.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude 3.7 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Anthropic Claude Haiku 4.5
<a name="cross-region-ip-us.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude Haiku 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-haiku-4-5-20251001-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Claude Opus 4.5 antrópico estadounidense
<a name="cross-region-ip-us.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Para denominar al perfil de inferencia Claude Opus 4.5 de US Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-opus-4-5-20251101-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-claude.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### El antrópico estadounidense Claude Opus 4.6
<a name="cross-region-ip-us.anthropic.claude-opus-4-6-v1"></a>

Para denominar al perfil de inferencia Claude Opus 4.6 de US Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-opus-4-6-v1
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia de US Anthropic Claude Sonnet 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Soneto antrópico estadounidense Claude 4.6
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-6"></a>

Para denominar perfil de inferencia al Soneto de Claude Anthropic de EE. UU. 4.6, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-sonnet-4-6
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 us-east-1 us-east-2 us-west-2  | 
| ca-west-1 |  ca-west-1 us-east-1 us-east-2 us-west-2  | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Claude Opus 4
<a name="cross-region-ip-us.anthropic.claude-opus-4-20250514-v1:0"></a>

Para llamar al perfil de inferencia de US Claude Opus 4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-opus-4-20250514-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Claude Opus 4.1
<a name="cross-region-ip-us.anthropic.claude-opus-4-1-20250805-v1:0"></a>

Para llamar al perfil de inferencia de US Claude Opus 4.1, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-opus-4-1-20250805-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Claude Sonnet 4
<a name="cross-region-ip-us.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Para llamar al perfil de inferencia de US Claude Sonnet 4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.anthropic.claude-sonnet-4-20250514-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Cohere Embed v4
<a name="cross-region-ip-us.cohere.embed-v4:0"></a>

Para llamar al perfil de inferencia de US Cohere Embed v4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.cohere.embed-v4:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-embed.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### EE. UU. DeepSeek -R1
<a name="cross-region-ip-us.deepseek.r1-v1:0"></a>

Para llamar al perfil de inferencia US DeepSeek -R1, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.deepseek.r1-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](https://www.deepseek.com/)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Llama 4 Maverick 17B Instruct
<a name="cross-region-ip-us.meta.llama4-maverick-17b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Llama 4 Maverick 17B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama4-maverick-17b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Llama 4 Scout 17B Instruct
<a name="cross-region-ip-us.meta.llama4-scout-17b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Llama 4 Scout 17B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama4-scout-17b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.1 70B Instruct
<a name="cross-region-ip-us.meta.llama3-1-70b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.1 70B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-1-70b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.1 8B Instruct
<a name="cross-region-ip-us.meta.llama3-1-8b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.1 8B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-1-8b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.1 Instruct 405B
<a name="cross-region-ip-us.meta.llama3-1-405b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.1 Instruct 405B, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-1-405b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 

### US Meta Llama 3.2 11B Instruct
<a name="cross-region-ip-us.meta.llama3-2-11b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.2 11B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-2-11b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 1B Instruct
<a name="cross-region-ip-us.meta.llama3-2-1b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.2 1B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-2-1b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 3B Instruct
<a name="cross-region-ip-us.meta.llama3-2-3b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.2 3B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-2-3b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.2 90B Instruct
<a name="cross-region-ip-us.meta.llama3-2-90b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.2 90B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-2-90b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-west-2  | 

### US Meta Llama 3.3 70B Instruct
<a name="cross-region-ip-us.meta.llama3-3-70b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de US Meta Llama 3.3 70B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.meta.llama3-3-70b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Mistral Pixtral Large 25.02
<a name="cross-region-ip-us.mistral.pixtral-large-2502-v1:0"></a>

Para llamar al perfil de inferencia de US Mistral Pixtral Large 25.02, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.mistral.pixtral-large-2502-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-mistral.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Nova Lite
<a name="cross-region-ip-us.amazon.nova-lite-v1:0"></a>

Para llamar al perfil de inferencia de US Nova Lite, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.amazon.nova-lite-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Nova Micro
<a name="cross-region-ip-us.amazon.nova-micro-v1:0"></a>

Para llamar al perfil de inferencia de US Nova Micro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.amazon.nova-micro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Nova Premier
<a name="cross-region-ip-us.amazon.nova-premier-v1:0"></a>

Para llamar al perfil de inferencia de US Nova Premier, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.amazon.nova-premier-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Nova Pro
<a name="cross-region-ip-us.amazon.nova-pro-v1:0"></a>

Para llamar al perfil de inferencia de US Nova Pro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.amazon.nova-pro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Pegasus de EE. UU. v1.2
<a name="cross-region-ip-us.twelvelabs.pegasus-1-2-v1:0"></a>

Para llamar al perfil de inferencia US Pegasus v1.2, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.twelvelabs.pegasus-1-2-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-pegasus.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Imagen estable de EE. UU., Conservative Upscale
<a name="cross-region-ip-us.stability.stable-conservative-upscale-v1:0"></a>

Para llamar al perfil de inferencia Conservative Upscale de US Stable Image, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-conservative-upscale-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](stable-image-services.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Control Sketch
<a name="cross-region-ip-us.stability.stable-image-control-sketch-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Control Sketch, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-control-sketch-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Control Structure
<a name="cross-region-ip-us.stability.stable-image-control-structure-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Control Structure, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-control-structure-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Creative Upscale
<a name="cross-region-ip-us.stability.stable-creative-upscale-v1:0"></a>

Para llamar al perfil de inferencia Creative Upscale de US Stable Image, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-creative-upscale-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](stable-image-services.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Erase Object
<a name="cross-region-ip-us.stability.stable-image-erase-object-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Erase Object, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-erase-object-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Imagen estable de EE. UU., rápida ampliación
<a name="cross-region-ip-us.stability.stable-fast-upscale-v1:0"></a>

Para llamar al perfil de inferencia US Stable Image Fast Upscale, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-fast-upscale-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](stable-image-services.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Inpaint
<a name="cross-region-ip-us.stability.stable-image-inpaint-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Inpaint, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-inpaint-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### EE. UU. Stable Image Outpaint
<a name="cross-region-ip-us.stability.stable-outpaint-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Outpaint, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-outpaint-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](stable-image-services.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Remove Background
<a name="cross-region-ip-us.stability.stable-image-remove-background-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Remove Background, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-remove-background-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Search and Recolor
<a name="cross-region-ip-us.stability.stable-image-search-recolor-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Search and Recolor, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-search-recolor-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Search and Replace
<a name="cross-region-ip-us.stability.stable-image-search-replace-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Search and Replace, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-search-replace-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Style Guide
<a name="cross-region-ip-us.stability.stable-image-style-guide-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Style Guide, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-image-style-guide-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US Stable Image Style Transfer
<a name="cross-region-ip-us.stability.stable-style-transfer-v1:0"></a>

Para llamar al perfil de inferencia de US Stable Image Style Transfer, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us.stability.stable-style-transfer-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-stability-diffusion.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### TwelveLabs Marengo Embed 3.0 de EE. UU.
<a name="cross-region-ip-us.twelvelabs.marengo-embed-3-0-v1:0"></a>

Para llamar al perfil de inferencia TwelveLabs Marengo Embed 3.0 de EE. UU., especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.twelvelabs.marengo-embed-3-0-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-marengo.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 

### TwelveLabs Marengo Embed de EE. UU. v2.7
<a name="cross-region-ip-us.twelvelabs.marengo-embed-2-7-v1:0"></a>

Para llamar al perfil de inferencia TwelveLabs Marengo Embed v2.7 de EE. UU., especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
us.twelvelabs.marengo-embed-2-7-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-marengo.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 

### Escritora estadounidense Palmyra X4
<a name="cross-region-ip-us.writer.palmyra-x4-v1:0"></a>

Para llamar al perfil de inferencia del escritor estadounidense Palmyra X4, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us.writer.palmyra-x4-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-writer-palmyra.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### Escritora estadounidense Palmyra X5
<a name="cross-region-ip-us.writer.palmyra-x5-v1:0"></a>

Para llamar al perfil de inferencia del escritor estadounidense Palmyra X5, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us.writer.palmyra-x5-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-writer-palmyra.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-east-1 |  us-east-1 us-east-2 us-west-2  | 
| us-east-2 |  us-east-1 us-east-2 us-west-2  | 
| us-west-1 |  us-east-1 us-east-2 us-west-1 us-west-2  | 
| us-west-2 |  us-east-1 us-east-2 us-west-2  | 

### US-GOV Claude 3 Haiku
<a name="cross-region-ip-us-gov.anthropic.claude-3-haiku-20240307-v1:0"></a>

Para llamar al perfil de inferencia de US-GOV Claude 3 Haiku, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us-gov.anthropic.claude-3-haiku-20240307-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### US-GOV Claude 3.5 Sonnet
<a name="cross-region-ip-us-gov.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Para llamar al perfil de inferencia de US-GOV Claude 3.5 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us-gov.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### US-GOV Claude 3.7 Sonnet
<a name="cross-region-ip-us-gov.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Para llamar al perfil de inferencia de US-GOV Claude 3.7 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
us-gov.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-gov-east-1 |  us-gov-east-1 us-gov-west-1  | 

### Claude Sonnet 4.5, gobernador de EE. UU.
<a name="cross-region-ip-us-gov.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia Claude Sonnet 4.5 del gobierno estadounidense, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
us-gov.anthropic.claude-sonnet-4-5-20250929-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-claude.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| us-gov-east-1 |  us-gov-west-1  | 
| us-gov-west-1 |  us-gov-west-1  | 

### APAC Anthropic Claude 3 Haiku
<a name="cross-region-ip-apac.anthropic.claude-3-haiku-20240307-v1:0"></a>

Para llamar al perfil de inferencia de APAC Anthropic Claude 3 Haiku, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-3-haiku-20240307-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### APAC Anthropic Claude 3 Sonnet
<a name="cross-region-ip-apac.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Para llamar al perfil de inferencia de APAC Anthropic Claude 3 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-3-sonnet-20240229-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### APAC Anthropic Claude 3.5 Sonnet
<a name="cross-region-ip-apac.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Para llamar al perfil de inferencia de APAC Anthropic Claude 3.5 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### APAC Anthropic Claude 3.5 Sonnet v2
<a name="cross-region-ip-apac.anthropic.claude-3-5-sonnet-20241022-v2:0"></a>

Para llamar al perfil de inferencia de APAC Anthropic Claude 3.5 Sonnet v2, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-3-5-sonnet-20241022-v2:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 

### APAC Anthropic Claude 3.7 Sonnet
<a name="cross-region-ip-apac.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Para llamar al perfil de inferencia de APAC Anthropic Claude 3.7 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2  | 

### APAC Claude Sonnet 4
<a name="cross-region-ip-apac.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Para llamar al perfil de inferencia de APAC Claude Sonnet 4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.anthropic.claude-sonnet-4-20250514-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-south-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Lite
<a name="cross-region-ip-apac.amazon.nova-lite-v1:0"></a>

Para llamar al perfil de inferencia de APAC Nova Lite, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.amazon.nova-lite-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Micro
<a name="cross-region-ip-apac.amazon.nova-micro-v1:0"></a>

Para llamar al perfil de inferencia de APAC Nova Micro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.amazon.nova-micro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Nova Pro
<a name="cross-region-ip-apac.amazon.nova-pro-v1:0"></a>

Para llamar al perfil de inferencia de APAC Nova Pro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.amazon.nova-pro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-east-2 |  ap-east-2 ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-south-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-southeast-1 ap-southeast-2  | 
| ap-southeast-3 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 
| ap-southeast-4 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 
| ap-southeast-5 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-5  | 
| ap-southeast-7 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 ap-southeast-7  | 
| me-central-1 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4 me-central-1  | 

### APAC Pegasus v1.2
<a name="cross-region-ip-apac.twelvelabs.pegasus-1-2-v1:0"></a>

Para llamar al perfil de inferencia de APAC Pegasus v1.2, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
apac.twelvelabs.pegasus-1-2-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-pegasus.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-4  | 

### APAC TwelveLabs Marengo Embed v2.7
<a name="cross-region-ip-apac.twelvelabs.marengo-embed-2-7-v1:0"></a>

Para llamar al perfil de inferencia TwelveLabs Marengo Embed v2.7 de APAC, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
apac.twelvelabs.marengo-embed-2-7-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-marengo.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-2 |  ap-northeast-1 ap-northeast-2 ap-northeast-3 ap-south-1 ap-south-2 ap-southeast-1 ap-southeast-2 ap-southeast-3 ap-southeast-4  | 

### AU AU Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-au.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia de AU AU Anthropic Claude Sonnet 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
au.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### AU Anthropic Claude Haiku 4.5
<a name="cross-region-ip-au.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Para llamar al perfil de inferencia de AU Anthropic Claude Haiku 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
au.anthropic.claude-haiku-4-5-20251001-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### AU Anthropic Claude Opus 4.6
<a name="cross-region-ip-au.anthropic.claude-opus-4-6-v1"></a>

Para denominar al perfil de inferencia Claude Opus 4.6 de AU Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
au.anthropic.claude-opus-4-6-v1
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### AU Anthropic Claude Sonnet 4.6
<a name="cross-region-ip-au.anthropic.claude-sonnet-4-6"></a>

Para denominar al perfil de inferencia del soneto antrópico de Claude 4.6 de la UA, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
au.anthropic.claude-sonnet-4-6
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-southeast-2 |  ap-southeast-2 ap-southeast-4  | 
| ap-southeast-4 |  ap-southeast-2 ap-southeast-4  | 

### CA Nova Lite
<a name="cross-region-ip-ca.amazon.nova-lite-v1:0"></a>

Para llamar al perfil de inferencia de CA Nova Lite, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
ca.amazon.nova-lite-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ca-central-1 |  ca-central-1 ca-west-1  | 
| ca-west-1 |  ca-central-1 ca-west-1  | 

### Amazon Nova 2 Lite de la UE
<a name="cross-region-ip-eu.amazon.nova-2-lite-v1:0"></a>

Para llamar al perfil de inferencia Amazon Nova 2 Lite de la UE, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
eu.amazon.nova-2-lite-v1:0
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude 3 Haiku
<a name="cross-region-ip-eu.anthropic.claude-3-haiku-20240307-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude 3 Haiku, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-3-haiku-20240307-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Anthropic Claude 3 Sonnet
<a name="cross-region-ip-eu.anthropic.claude-3-sonnet-20240229-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude 3 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-3-sonnet-20240229-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Anthropic Claude 3.5 Sonnet
<a name="cross-region-ip-eu.anthropic.claude-3-5-sonnet-20240620-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude 3.5 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-3-5-sonnet-20240620-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Anthropic Claude 3.7 Sonnet
<a name="cross-region-ip-eu.anthropic.claude-3-7-sonnet-20250219-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude 3.7 Sonnet, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-3-7-sonnet-20250219-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Haiku 4.5
<a name="cross-region-ip-eu.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude Haiku 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-haiku-4-5-20251001-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Opus 4.5
<a name="cross-region-ip-eu.anthropic.claude-opus-4-5-20251101-v1:0"></a>

Para denominar al perfil de inferencia Claude Opus 4.5 de la UE Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-opus-4-5-20251101-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-claude.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Opus 4.6
<a name="cross-region-ip-eu.anthropic.claude-opus-4-6-v1"></a>

Para denominar al perfil de inferencia Claude Opus 4.6 de la UE Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-opus-4-6-v1
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia de EU Anthropic Claude Sonnet 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### Soneto antrópico Claude 4.6 de la UE
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-6"></a>

Para denominar perfil de inferencia 4.6 al soneto antrópico de Claude de la UE, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-sonnet-4-6
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Claude Sonnet 4
<a name="cross-region-ip-eu.anthropic.claude-sonnet-4-20250514-v1:0"></a>

Para llamar al perfil de inferencia de EU Claude Sonnet 4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.anthropic.claude-sonnet-4-20250514-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3 il-central-1  | 

### EU Cohere Embed v4
<a name="cross-region-ip-eu.cohere.embed-v4:0"></a>

Para llamar al perfil de inferencia de EU Cohere Embed v4, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.cohere.embed-v4:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-embed.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU Meta Llama 3.2 1B Instruct
<a name="cross-region-ip-eu.meta.llama3-2-1b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de EU Meta Llama 3.2 1B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.meta.llama3-2-1b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Meta Llama 3.2 3B Instruct
<a name="cross-region-ip-eu.meta.llama3-2-3b-instruct-v1:0"></a>

Para llamar al perfil de inferencia de EU Meta Llama 3.2 3B Instruct, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.meta.llama3-2-3b-instruct-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-meta.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-west-1 eu-west-3  | 

### EU Mistral Pixtral Large 25.02
<a name="cross-region-ip-eu.mistral.pixtral-large-2502-v1:0"></a>

Para llamar al perfil de inferencia de EU Mistral Pixtral Large 25.02, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.mistral.pixtral-large-2502-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-mistral.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 

### EU Nova Lite
<a name="cross-region-ip-eu.amazon.nova-lite-v1:0"></a>

Para llamar al perfil de inferencia de EU Nova Lite, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.amazon.nova-lite-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### EU Nova Micro
<a name="cross-region-ip-eu.amazon.nova-micro-v1:0"></a>

Para llamar al perfil de inferencia de EU Nova Micro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.amazon.nova-micro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### EU Nova Pro
<a name="cross-region-ip-eu.amazon.nova-pro-v1:0"></a>

Para llamar al perfil de inferencia de EU Nova Pro, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
eu.amazon.nova-pro-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](https://docs.aws.amazon.com/nova/latest/userguide/getting-started-schema.html).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-west-1 eu-west-3  | 
| il-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-west-1 eu-west-3 il-central-1  | 

### UE TwelveLabs Marengo Embed 3.0
<a name="cross-region-ip-eu.twelvelabs.marengo-embed-3-0-v1:0"></a>

Para llamar al perfil de inferencia EU TwelveLabs Marengo Embed 3.0, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
eu.twelvelabs.marengo-embed-3-0-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-marengo.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### EU TwelveLabs Marengo Embed v2.7
<a name="cross-region-ip-eu.twelvelabs.marengo-embed-2-7-v1:0"></a>

Para llamar al perfil de inferencia EU TwelveLabs Marengo Embed v2.7, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
eu.twelvelabs.marengo-embed-2-7-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-marengo.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### TwelveLabs Pegasus v1.2 de la UE
<a name="cross-region-ip-eu.twelvelabs.pegasus-1-2-v1:0"></a>

Para llamar al perfil de inferencia TwelveLabs Pegasus v1.2 de la UE, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
eu.twelvelabs.pegasus-1-2-v1:0
```

[Para obtener más información sobre los parámetros de inferencia de este modelo, consulte el enlace.](model-parameters-pegasus.md)

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| eu-central-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-central-2 |  eu-central-1 eu-central-2 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-north-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-south-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-1 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 
| eu-west-2 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-2 eu-west-3  | 
| eu-west-3 |  eu-central-1 eu-north-1 eu-south-1 eu-south-2 eu-west-1 eu-west-3  | 

### Amazon Nova 2 Lite de HP
<a name="cross-region-ip-jp.amazon.nova-2-lite-v1:0"></a>

Para llamar al perfil de inferencia de JP Amazon Nova 2 Lite, especifique el siguiente ID de perfil de inferencia en una de las regiones de origen:

```
jp.amazon.nova-2-lite-v1:0
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 

### JP Anthropic Claude Haiku 4.5
<a name="cross-region-ip-jp.anthropic.claude-haiku-4-5-20251001-v1:0"></a>

Para llamar al perfil de inferencia de JP Anthropic Claude Haiku 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
jp.anthropic.claude-haiku-4-5-20251001-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

### JP Anthropic Claude Sonnet 4.5
<a name="cross-region-ip-jp.anthropic.claude-sonnet-4-5-20250929-v1:0"></a>

Para llamar al perfil de inferencia de JP Anthropic Claude Sonnet 4.5, especifique el siguiente ID del perfil de inferencia en una de las regiones de origen:

```
jp.anthropic.claude-sonnet-4-5-20250929-v1:0
```

Para obtener más información sobre los parámetros de inferencia de este modelo, consulte [Link](model-parameters-claude.md).

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

### JP Anthropic Claude Sonnet 4.6
<a name="cross-region-ip-jp.anthropic.claude-sonnet-4-6"></a>

Para llamar al perfil de inferencia del Soneto Claude 4.6 de JP Anthropic, especifique el siguiente identificador del perfil de inferencia en una de las regiones de origen:

```
jp.anthropic.claude-sonnet-4-6
```

La siguiente tabla muestra las regiones de origen desde las que puede llamar al perfil de inferencia y las regiones de destino a las que se pueden dirigir las solicitudes:


| Regiones de origen | Regiones de destino | 
| --- | --- | 
| ap-northeast-1 |  ap-northeast-1 ap-northeast-3  | 
| ap-northeast-3 |  ap-northeast-1 ap-northeast-3  | 

## Regiones y modelos compatibles con los perfiles de inferencia de aplicación
<a name="inference-profiles-support-user"></a>

Los perfiles de inferencia de aplicaciones se pueden crear para todos los modelos de la siguiente manera: Regiones de AWS
+ ap-northeast-1
+ ap-northeast-2
+ ap-south-1
+ ap-southeast-1
+ ap-southeast-2
+ ca-central-1
+ eu-central-1
+ eu-west-1
+ eu-west-2
+ eu-west-3
+ sa-east-1
+ us-east-1
+ us-east-2
+ us-gov-east-1
+ us-west-2

Los perfiles de inferencia de aplicaciones se pueden crear desde todos los modelos y perfiles de inferencia compatibles con Amazon Bedrock. Para obtener más información sobre los modelos admitidos en Amazon Bedrock, consulte [Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md).

# Requisitos previos para perfiles de inferencia
<a name="inference-profiles-prereq"></a>

Antes de utilizar la inferencia entre regiones, compruebe que cumple los siguientes requisitos previos:
+ Su rol tiene acceso a las acciones de la API de perfil de inferencia. Si su función tiene adjunta la política [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSadministrada, puede omitir este paso. De lo contrario, realice lo siguiente:

  1. Siga los pasos que se indican en [Creación de políticas de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html) y cree la siguiente política, que permite a un rol realizar acciones relacionadas con el perfil de inferencia y ejecutar la inferencia de modelos con todos los modelos fundacionales y perfiles de inferencia.

------
#### [ JSON ]

****  

     ```
     {
         "Version":"2012-10-17",		 	 	 
         "Statement": [
             {
                 "Effect": "Allow",
                 "Action": [
                     "bedrock:InvokeModel*",
                     "bedrock:CreateInferenceProfile"
                 ],
                 "Resource": [
                     "arn:aws:bedrock:*::foundation-model/*",
                     "arn:aws:bedrock:*:*:inference-profile/*",
                     "arn:aws:bedrock:*:*:application-inference-profile/*"
                 ]
             },
             {
                 "Effect": "Allow",
                 "Action": [
                     "bedrock:GetInferenceProfile",
                     "bedrock:ListInferenceProfiles",
                     "bedrock:DeleteInferenceProfile",
                     "bedrock:TagResource",
                     "bedrock:UntagResource",
                     "bedrock:ListTagsForResource"
                 ],
                 "Resource": [
                     "arn:aws:bedrock:*:*:inference-profile/*",
                     "arn:aws:bedrock:*:*:application-inference-profile/*"
                 ]
             }
         ]
     }
     ```

------

     (Opcional) Puede restringir el acceso al rol de las siguientes formas:
     + Para restringir las acciones de la API que puede realizar el rol, modifique la lista del campo `Action` para que contenga solo las [operaciones de la API](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) a las que desee otorgar acceso.
     + Para restringir el acceso del rol a perfiles de inferencia específicos, modifique la lista `Resource` para que contenga solo los [perfiles de inferencia](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) y los modelos básicos a los que desee otorgar acceso. Los perfiles de inferencia definidos por el sistema comienzan por `inference-profile` y los perfiles de inferencia de aplicaciones comienzan por `application-inference-profile`.
**importante**  
Al especificar un perfil de inferencia en el campo `Resource` en la primera instrucción, también debe especificar el modelo fundacional asociado de cada región.
     + Para restringir el acceso de los usuarios de modo que puedan invocar un modelo fundacional únicamente a través de un perfil de inferencia, añada un campo `Condition` y utilice la [clave de condición](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-policy-keys) `aws:InferenceProfileArn`. Especifique el perfil de inferencia por el que quiere filtrar el acceso. Esta condición se puede incluir en una instrucción que se aplique a los recursos de `foundation-model`.
     + Por ejemplo, puede adjuntar la siguiente política a un rol para que solo pueda invocar el Anthropic Claude 3 Haiku modelo a través del perfil de Anthropic Claude 3 Haiku inferencia de EE. UU. en la cuenta de *111122223333* us-west-2:

------
#### [ JSON ]

****  

       ```
       {
           "Version":"2012-10-17",		 	 	 
           "Statement": [
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-west-2:111122223333:inference-profile/us.anthropic.claude-3-haiku-20240307-v1:0"
                   ]
               },
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-1::foundation-model/anthropic.claude-3-haiku-20240307-v1:0",
                       "arn:aws:bedrock:us-west-2::foundation-model/anthropic.claude-3-haiku-20240307-v1:0"
                   ],
                   "Condition": {
                       "StringLike": {
                           "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-west-2:111122223333:inference-profile/us.anthropic.claude-3-haiku-20240307-v1:0"
                       }
                   }
               }
           ]
       }
       ```

------
     + Por ejemplo, puede asociar la siguiente política a un rol para que solo pueda invocar el modelo Anthropic Claude Sonnet 4 a través del perfil de inferencia de Global Claude Sonnet 4 en la cuenta 111122223333 en us-west-2 (Este de EE. UU. (Ohio)).

------
#### [ JSON ]

****  

       ```
       {
           "Version":"2012-10-17",		 	 	 
           "Statement": [
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-2:111122223333:inference-profile/global.anthropic.claude-sonnet-4-20250514-v1:0"
                   ]
               },
               {
                   "Effect": "Allow",
                   "Action": [
                       "bedrock:InvokeModel*"
                   ],
                   "Resource": [
                       "arn:aws:bedrock:us-east-2::foundation-model/anthropic.claude-sonnet-4-20250514-v1:0",
                       "arn:aws:bedrock:::foundation-model/anthropic.claude-sonnet-4-20250514-v1:0"
                   ],
                   "Condition": {
                       "StringLike": {
                           "bedrock:InferenceProfileArn": "arn:aws:bedrock:us-east-2:111122223333:inference-profile/global.anthropic.claude-sonnet-4-20250514-v1:0"
                       }
                   }
               }
           ]
       }
       ```

------
     + También puede restringir el uso del perfil de inferencia de Global Claude Sonnet 4 añadiendo una denegación explícita con una condición `StringEquals` que compruebe que la clave de contexto de la solicitud `aws:RequestedRegion` es igual a No especificada. Como coincide con `StringEquals`, la opción Denegar anula cualquier permiso y bloquea el enrutamiento de Global de las solicitudes de inferencia.

       ```
       {
           "Effect": "Deny",
           "Action": [
               "bedrock:InvokeModel*"
           ],
           "Resource": "*",
           "Condition": {
               "StringEquals": {
                   "aws:RequestedRegion": "unspecified"
               }
           }
       },
       ```

  1. Siga los pasos que se indican en [Adición y eliminación de permisos de identidad de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) para asociar la política a un rol y concederle permisos para ver y usar todos los perfiles de inferencia.
+ Ha solicitado acceso al modelo definido en el perfil de inferencia que quiere utilizar, en la región desde la que quiere llamar al perfil de inferencia.

# Creación de un perfil de inferencia de aplicaciones
<a name="inference-profiles-create"></a>

Puede crear un perfil de inferencia de aplicaciones con una o más regiones para realizar un seguimiento del uso y los costos al invocar un modelo.
+ Para crear un perfil de inferencia de aplicaciones para una región, especifique un modelo fundacional. Se realizará un seguimiento del uso y los costos de las solicitudes realizadas a esa región con ese modelo.
+ Para crear un perfil de inferencia de aplicaciones para varias regiones, especifique un perfil de inferencia entre regiones (definido por el sistema). El perfil de inferencia dirigirá las solicitudes a las regiones definidas en el perfil de inferencia entre regiones (definido por el sistema) que elija. Se hará un seguimiento del uso y los costos de las solicitudes realizadas a las regiones del perfil de inferencia.

Actualmente, solo puede crear un perfil de inferencia mediante la API de Amazon Bedrock.

Para crear un perfil de inferencia, envíe una [CreateInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateInferenceProfile.html)solicitud con un punto final del [plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Los siguientes campos son obligatorios:


****  

| Campo | Caso de uso | 
| --- | --- | 
| inferenceProfileName | Especificar un nombre para el perfil de inferencia. | 
| modelSource | Especificar el modelo fundacional o el perfil de inferencia entre regiones (definido por el sistema) que define el modelo y las regiones de los que desea realizar un seguimiento de los costos y el uso. | 

Los siguientes campos son opcionales:


****  

| Campo | Caso de uso | 
| --- | --- | 
| description | Proporcionar una descripción del perfil de inferencia. | 
| etiquetas | Asociar etiquetas al perfil de inferencia. Para obtener más información, consulte [Organización [Etiquetado de los recursos de Amazon Bedrock](tagging.md) y seguimiento de los costos mediante etiquetas de asignación de AWS costos](https://docs.aws.amazon.com//awsaccountbilling/latest/aboutv2/cost-alloc-tags.html). | 
| clientRequestToken | Para garantizar que la solicitud de la API se complete solo una vez. Para obtener más información, consulte [Ensuring idempotency](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

La respuesta devuelve un `inferenceProfileArn` que se puede utilizar en otras acciones relacionadas con el perfil de inferencia y con la invocación del modelo y los recursos de Amazon Bedrock.

# Modificación de las etiquetas del perfil de inferencia de una aplicación
<a name="inference-profiles-modify"></a>

Tras crear el perfil de inferencia de una aplicación, podrá seguir administrando las etiquetas a través de la API de Amazon Bedrock enviando una solicitud [TagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_TagResource.html) o [UntagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UntagResource.html) con un [punto de conexión del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) y especificando el ARN del perfil de inferencia de la aplicación en el campo `resourceArn`. Para obtener más información acerca del etiquetado, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md).

# Visualización de información acerca de un perfil de inferencia
<a name="inference-profiles-view"></a>

Puede ver información sobre los perfiles de inferencia entre regiones o los perfiles de inferencia de aplicaciones que haya creado. Para obtener más información sobre cómo ver información sobre un perfil de inferencia, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ Console ]

**Cómo ver información sobre un perfil de inferencia entre regiones (definido por el sistema)**

1. Inicie sesión en la Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola de Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. En el panel de navegación de la izquierda, seleccione **Inferencia entre regiones**. A continuación, en la sección **Inferencia entre regiones**, elija un perfil de inferencia.

1. Consulte los detalles del perfil de inferencia en la sección **Detalles del perfil de inferencia** y las regiones que abarca en la sección **Modelos**.

**nota**  
No puede ver los perfiles de inferencia de aplicaciones en la consola de Amazon Bedrock.

------
#### [ API ]

Para obtener información sobre un perfil de inferencia, envíe una solicitud [GetInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetInferenceProfile.html) con un [punto de conexión del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) e indique el Nombre de recurso de Amazon (ARN) o el ID del perfil de inferencia en el campo `inferenceProfileIdentifier`.

Para mostrar información sobre los perfiles de inferencia que puede usar, envíe una solicitud [ListInferenceProfiles](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListInferenceProfiles.html) con un [punto de conexión del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Puede especificar los siguientes parámetros opcionales:


****  

| Campo | Descripción breve | 
| --- | --- | 
| maxResults | El número máximo de resultados que se devuelven en una respuesta. | 
| nextToken | Si hay más resultados que el número que ha especificado en el campo maxResults, la respuesta devolverá un valor nextToken. Para ver el siguiente lote de resultados, envíe el valor nextToken en otra solicitud. | 

------

# Uso de un perfil de inferencia en la invocación del modelo
<a name="inference-profiles-use"></a>

Puede utilizar un perfil de inferencia entre regiones en lugar de un modelo fundacional para enrutar las solicitudes a varias regiones. Para realizar un seguimiento de los costos y el uso de un modelo, en una o varias regiones, puede utilizar un perfil de inferencia de aplicaciones. Para obtener más información sobre cómo usar un perfil de inferencia al ejecutar la inferencia del modelo, seleccione la pestaña correspondiente al método que prefiera y siga los pasos:

------
#### [ Console ]

Para usar un perfil de inferencia con una característica que lo admita, haga lo siguiente:

1. Inicie sesión en la Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola de Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock/](https://console.aws.amazon.com/bedrock).

1. Desplácese hasta la página de la característica para la que desee usar un perfil de inferencia. Por ejemplo, seleccione **Sitio de pruebas de chat/texto** en el panel de navegación izquierdo.

1. Elija **Seleccionar modelo** y, a continuación, elija el modelo. Por ejemplo, elija **Amazon** y, a continuación, **Nova Premier**.

1. En **Inferencia**, seleccione **Perfiles de inferencia** en el menú desplegable.

1. Seleccione el perfil de inferencia que desee utilizar (por ejemplo, **US Nova Premier**) y, a continuación, elija **Aplicar**.

------
#### [ API ]

Para usar un perfil de inferencia al ejecutar la inferencia desde cualquier región que incluya, utilice las siguientes operaciones de la API:
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) o [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html): para utilizar un perfil de inferencia en la invocación del modelo, siga los pasos que se indican en [Envíe un único mensaje con InvokeModel](inference-invoke.md) y especifique el Nombre de recurso de Amazon (ARN) del perfil de inferencia en el campo `modelId`. Para ver un ejemplo, consulte [Uso de un perfil de inferencia en la invocación del modelo](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html#API_runtime_InvokeModel_Example_5).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) o [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html): para utilizar un perfil de inferencia en la invocación del modelo con la API Converse, siga los pasos que se indican en [Cómo mantener una conversación con las operaciones de la API Converse](conversation-inference.md) y especifique el ARN del perfil de inferencia en el campo `modelId`. Para ver un ejemplo, consulte [Uso de un perfil de inferencia en la invocación del modelo](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html#API_runtime_Converse_Example_5).
+ [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html): para utilizar un perfil de inferencia al generar respuestas a partir de los resultados de una consulta a una base de conocimiento, siga los pasos de la pestaña API en [Prueba de la base de conocimientos mediante consultas y respuestas](knowledge-base-test.md) y especifique el ARN del perfil de inferencia en el campo `modelArn`. Para obtener más información, consulte [Use an inference proflie to generate a response bedrock/latest/api\$1reference](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html#API_agent-runtime_RetrieveAndGenerate_Example_3).
+ [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html): para enviar un perfil de inferencia para la evaluación del modelo, siga los pasos de la pestaña API en [Inicio de un trabajo de evaluación automática de modelos en Amazon Bedrock](model-evaluation-jobs-management-create.md) y especifique el ARN del perfil de inferencia en el campo `modelIdentifier`.
+ [CreatePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreatePrompt.html): para usar un perfil de inferencia al generar una respuesta para una petición creada en Administración de peticiones, siga los pasos de la pestaña API en [Creación de una petición con la administración de peticiones](prompt-management-create.md) y especifique el ARN del perfil de inferencia en el campo `modelId`.
+ [CreateFlow](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateFlow.html): para usar un perfil de inferencia al generar una respuesta para una petición insertada definida dentro de un nodo de petición de un flujo, siga los pasos de la pestaña API en [Creación y diseño de un flujo en Amazon Bedrock](flows-create.md). Al definir el [nodo de petición](flows-nodes.md#flows-nodes-prompt), especifique el ARN del perfil de inferencia en el campo `modelId`.
+ [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html): para usar un perfil de inferencia al analizar información no textual en un origen de datos, siga los pasos de la sección API en [Opciones de análisis del origen de datos](kb-advanced-parsing.md) y especifique el ARN del perfil de inferencia en el campo `modelArn`.

**nota**  
Si utiliza un perfil de inferencia entre regiones (definido por el sistema), puede utilizar el ARN o el ID del perfil de inferencia.

------

# Eliminación de un perfil de inferencia de aplicaciones
<a name="inference-profiles-delete"></a>

Si ya no necesita un perfil de inferencia, puede eliminarlo. Solo puede eliminar perfiles de inferencia a través de la API de Amazon Bedrock.

Para eliminar un perfil de inferencia, envíe una solicitud [DeleteInferenceProfile](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteInferenceProfiles.html) con un [punto de conexión del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) y especifique el Nombre de recurso de Amazon (ARN) o el ID del perfil de inferencia que desea eliminar en el campo `inferenceProflieIdentifier`.

# Aumento de la capacidad de invocación de modelos con el rendimiento aprovisionado en Amazon Bedrock
<a name="prov-throughput"></a>

El **rendimiento** es el número y la velocidad de entradas y salidas que procesa y devuelve un modelo. Puede adquirir **rendimiento aprovisionado** para proporcionar un mayor nivel de rendimiento para un modelo a un costo fijo. Para poder personalizar un modelo, debe adquirir rendimiento aprovisionado para poder usarlo.

El rendimiento aprovisionado que compre se le facturará por hora. Para obtener más información acerca de los precios, consulte [Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). El precio por hora depende de los siguientes factores:

1. El modelo que elija (en el caso de los modelos personalizados, el precio es el mismo que el del modelo base con el que se ha personalizado).

1. El número de unidades modelo (MUs) que especifique para el rendimiento aprovisionado. Una MU ofrece un nivel de rendimiento específico para el modelo especificado. El nivel de rendimiento de una MU especifica lo siguiente:
   + El número de tokens de entrada que puede procesar una MU en todas las solicitudes en un lapso de tiempo de un minuto. 
   + El número de tokens de salida que puede procesar una MU en todas las solicitudes en un lapso de tiempo de un minuto.
**nota**  
Para obtener más información sobre lo que especifica una MU, los precios por MU y para solicitar aumentos de límites, póngase en contacto con su Cuenta de AWS gerente.

1. El tiempo que se compromete a mantener el rendimiento aprovisionado. Cuanto mayor sea la duración del compromiso, mayor será el descuento del precio por hora. Puede elegir entre los siguientes niveles de compromiso:
   + Sin compromiso: puede eliminar el rendimiento aprovisionado en cualquier momento.
   + Un mes: no puede eliminar el rendimiento aprovisionado hasta que finalice el plazo de compromiso de un mes.
   + Seis meses: no puede eliminar el rendimiento aprovisionado hasta que finalice el plazo de compromiso de seis meses.
**nota**  
La facturación continúa hasta que elimine el rendimiento aprovisionado.

Los siguientes pasos describen el proceso de configuración y uso del rendimiento aprovisionado.

1. Determine el número de unidades MUs que desea adquirir para un rendimiento aprovisionado y el tiempo durante el cual quiere comprometerse a utilizarlo.

1. Adquisición de rendimiento aprovisionado para un modelo base o personalizado.

1. Una vez creado el modelo aprovisionado, puede usarlo para [ejecutar la inferencia del modelo](inference.md).

**Topics**
+ [Regiones y modelos que admiten el rendimiento aprovisionado](prov-thru-supported.md)
+ [Requisitos previos para el rendimiento aprovisionado](prov-thru-prereq.md)
+ [Adquisición de un rendimiento aprovisionado para un modelo de Amazon Bedrock](prov-thru-purchase.md)
+ [Visualización de información sobre un rendimiento aprovisionado](prov-thru-info.md)
+ [Modificación de un rendimiento aprovisionado](prov-thru-edit.md)
+ [Uso de un rendimiento aprovisionado con un recurso de Amazon Bedrock](prov-thru-use.md)
+ [Eliminar un rendimiento aprovisionado o cancelar la renovación automática](prov-thru-delete.md)
+ [Ejemplos de código para Rendimiento aprovisionado](prov-thru-code-examples.md)

# Regiones y modelos que admiten el rendimiento aprovisionado
<a name="prov-thru-supported"></a>

Si adquiere Provisioned Throughput a través de la API de Amazon Bedrock, debe especificar una variante contextual de Amazon Bedrock FMs para el ID del modelo.

**nota**  
El rendimiento aprovisionado solo se admite en AWS GovCloud (EE. UU. al oeste) para modelos personalizados sin compromiso de compra. Use el ID de un modelo personalizado cuando compre rendimiento aprovisionado para dicho modelo.

En la siguiente tabla se muestran los modelos para los que puede adquirir el rendimiento aprovisionado, el identificador de modelo que se utilizará al comprar el rendimiento aprovisionado y aquellos Regiones de AWS en los que puede adquirir el rendimiento aprovisionado para el modelo.


| Proveedor | Modelo | ID del modelo | Compatibilidad con modelos de una sola región | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v1:00:256 k |  us-east-1  | 
| Amazon | Nova Canvas | amazona. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazon. nova-lite-v1:20:24 km |  us-east-1  | 
| Amazon | Nova Lite | amazona. nova-lite-v1:30:300 km |  us-east-1  | 
| Amazon | Nova Micro | amazona. nova-micro-v1:20:128 k |  us-east-1  | 
| Amazon | Nova Micro | amazona. nova-micro-v1:20:24 km |  us-east-1  | 
| Amazon | Nova Pro | amazona. nova-pro-v1:20:24 km |  us-east-1  | 
| Amazon | Nova Pro | amazona. nova-pro-v1:30:300 km |  us-east-1  | 
| Amazon | Titan Embeddings G1 - Text | amazona. titan-embed-text-v1:2:8 km |  us-east-1 us-west-2  | 
| Amazon | Titan Image Generator G1 v2 | amazona. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazon. titan-embed-image-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:0:100k |  us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:0:18k |  us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v2:1:18k |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude | anthropic.claude-v 2:1:200 k |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  ap-southeast-2 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v 1:10:48 k |  ap-south-1 ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:00:200 k |  ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v 1:00:28 k |  ap-south-1 ap-southeast-2 eu-west-1 eu-west-3 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v 1:0:18 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v 1:00:200 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v 1:0:51 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:0:18 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:0:200 k |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v 2:0:51 k |  us-west-2  | 
| Anthropic | Claude Instant | antrópico. claude-instant-v1:2:100 km |  us-east-1 us-west-2  | 
| Cohere | Embed English | cohesionarse. embed-english-v3:05:12 |  ca-central-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Cohere | Embed Multilingual | coherente. embed-multilingual-v3:05:12 |  ca-central-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70 1:00:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.1 8B Instruct | metal.llama3-1-8 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 11B Instruct | metal.llama3-2-11 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 1B Instruct | meta.llama3-2-1 1:10:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 3B Instruct | meta.llama3-2-3 1:00:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 90B Instruct | metal.llama3-2-90 1:00:128 k b-instruct-v |  us-west-2  | 

**nota**  
Los siguientes modelos no admiten compras sin compromiso para el modelo base:  
Titan Image Generator G1 V1
Titan Image Generator G1 V2

# Requisitos previos para el rendimiento aprovisionado
<a name="prov-thru-prereq"></a>

Para poder adquirir y administrar el rendimiento aprovisionado, debe cumplir los siguientes requisitos previos:

1. [Solicite acceso al modelo o modelos](model-access.md) para los que quiere adquirir el rendimiento aprovisionado. Una vez que se le haya concedido el acceso, podrá adquirir el rendimiento aprovisionado para el modelo base y cualquier modelo personalizado a partir de él.

1. Asegúrese de que su rol de IAM tenga acceso a las acciones de la API de rendimiento aprovisionado. Si su función tiene adjunta la política [AmazonBedrockFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-AmazonBedrockFullAccess)AWSadministrada, puede omitir este paso. De lo contrario, realice lo siguiente:

   1. Siga los pasos que se indican en [Crear políticas de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html) y cree la siguiente política, que permite a un rol crear un rendimiento aprovisionado para todos los modelos fundacionales y personalizados.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Sid": "PermissionsForProvisionedThroughput",
                  "Effect": "Allow",
                  "Action": [
                      "bedrock:GetFoundationModel",
                      "bedrock:ListFoundationModels",
                      "bedrock:GetCustomModel",
                      "bedrock:ListCustomModels",
                      "bedrock:InvokeModel",
                      "bedrock:InvokeModelWithResponseStream",
                      "bedrock:ListTagsForResource",
                      "bedrock:UntagResource",
                      "bedrock:TagResource",
                      "bedrock:CreateProvisionedModelThroughput",
                      "bedrock:GetProvisionedModelThroughput",
                      "bedrock:ListProvisionedModelThroughputs",
                      "bedrock:UpdateProvisionedModelThroughput",
                      "bedrock:DeleteProvisionedModelThroughput"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------
**nota**  
Si utilizas el rendimiento aprovisionado con inferencia entre regiones, es posible que necesites permisos adicionales. Consulte [Aumento del rendimiento con la inferencia entre regiones](cross-region-inference.md) para obtener más información.

      (Opcional) Puede restringir el acceso al rol de las siguientes formas:
      + Para restringir las acciones de la API que puede realizar el rol, modifique la lista del campo `Action` para que contenga solo las [operaciones de la API](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-actions-as-permissions) a las que desee otorgar acceso.
      + Tras crear un modelo aprovisionado, puede restringir la capacidad del rol para realizar una solicitud de la API con el modelo aprovisionado modificando la lista `Resource` para que contenga solo los [modelos aprovisionados](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) a los que quiera permitir el acceso. Para ver un ejemplo, consulta [Permiso a los usuarios para invocar un modelo aprovisionado](security_iam_id-based-policy-examples.md#security_iam_id-based-policy-examples-perform-actions-pt).
      + Para restringir la capacidad de un rol de crear modelos aprovisionados a partir de modelos base o personalizados específicos, modifique la lista `Resource` para que contenga solo los [modelos fundacionales y personalizados](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html#amazonbedrock-resources-for-iam-policies) a los que desee permitir el acceso.

   1. Siga los pasos que se indican en [Adición y eliminación de permisos de identidad de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) para asociar la política a un rol para concederle permisos.

1. Si va a adquirir el rendimiento aprovisionado para un modelo personalizado que está cifrado con una AWS KMS clave administrada por el cliente, su función de IAM debe tener permisos para descifrar la clave. Puede utilizar la plantilla en [Creación de una clave administrada por el cliente y asociarle una política de claves](encryption-custom-job.md#encryption-key-policy). Para obtener permisos mínimos, solo puede utilizar la declaración de política. *Permissions for custom model users*

# Adquisición de un rendimiento aprovisionado para un modelo de Amazon Bedrock
<a name="prov-thru-purchase"></a>

Amazon Bedrock ofrece dos tipos de rendimiento aprovisionado: por tokens y por unidades modelo. Consulte las siguientes instrucciones para conocer el tipo de rendimiento aprovisionado que desee adquirir.

Para obtener más información sobre las diferencias entre los dos tipos de rendimiento aprovisionado, consulte. [Aumento de la capacidad de invocación de modelos con el rendimiento aprovisionado en Amazon Bedrock](prov-throughput.md)

## Rendimiento aprovisionado por unidades modelo
<a name="prov-thru-purchase-MUs"></a>

Al adquirir un rendimiento aprovisionado por unidades de modelo para un modelo, se especifica el nivel de compromiso y el número de unidades de modelo () MUs que se van a asignar. Para ver las cuotas de las UM, consulte [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) en la Referencia general de AWS. Antes de poder comprar un rendimiento aprovisionado (con compromiso o sin compromiso), primero debe visitar el [centro de AWS soporte](https://console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase) MUs para solicitar que su cuenta se distribuya entre los rendimientos aprovisionados. Una vez que se haya concedido su solicitud, podrá comprar un rendimiento aprovisionado.

**nota**  
Después de comprar el rendimiento aprovisionado, si está asociado a un modelo personalizado, puede cambiarlo especificando una de las siguientes opciones:  
El modelo base a partir del cual se personalizó el modelo personalizado
Otro modelo personalizado que se personalizó a partir del mismo modelo base que el modelo personalizado
Solo puede cambiar el modelo asociado para los rendimientos aprovisionados asociados a un modelo personalizado.

Para obtener información sobre cómo comprar el rendimiento aprovisionado para un modelo, elija la pestaña correspondiente al método que prefiera y, a continuación, siga estos pasos:

------
#### [ Console ]

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, elija **Rendimiento aprovisionado**.

1. En la sección **Rendimiento aprovisionado**, seleccione **Adquisición de rendimiento aprovisionado**.

1. Para ver la sección **Detalles del rendimiento aprovisionado**, haga lo siguiente:

   1. En el campo **Nombre del rendimiento aprovisionado**, escriba un nombre para el rendimiento aprovisionado.

   1. En **Seleccionar el modelo**, seleccione un proveedor de modelos base o una categoría de modelos personalizados. A continuación, seleccione el modelo para el que desee aprovisionar el rendimiento.
**nota**  
Para ver los modelos básicos para los que puede adquirir Provisioned Throughput sin compromiso, consulte la documentación de los modelos compatibles.  
En la AWS GovCloud (US) región, solo puede adquirir el rendimiento aprovisionado para modelos personalizados sin compromiso.

   1. (Opcional) Para asociar etiquetas al rendimiento aprovisionado, amplíe la sección **Etiquetas** y elija **Agregar nueva etiqueta**. Para obtener más información, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md).

1. **Para el **modo de aprovisionamiento**, seleccione Por unidades de modelo**

1. Para la sección **Plazo de compromiso y unidades modelo**, haga lo siguiente:

   1. En la sección **Seleccione el plazo de compromiso**, elija la cantidad de tiempo durante el que quiere comprometerse a utilizar el rendimiento aprovisionado.

   1. En el campo **Unidades modelo**, introduzca el número deseado de unidades modelo (MUs). Si va a aprovisionar un modelo con compromiso, primero debe visitar el [centro de AWS soporte](https://console.aws.amazon.com/support/home#/case/create?issueType=service-limit-increase) para solicitar un aumento en el número de modelos MUs que puede adquirir.

1. Elija **Comprar rendimiento aprovisionado**.

1. Revise la nota que aparece y confirme la duración y el precio del compromiso marcando la casilla de verificación. A continuación, seleccione **Confirmar compra**.

1. La consola muestra la página de información general de **Rendimiento aprovisionado**. El **Estado** del rendimiento aprovisionado en la tabla Rendimiento aprovisionado pasa a **Creando**. Cuando se termine de crear el rendimiento aprovisionado, el **Estado** pasará a ser **En servicio**. Si la actualización falla, el **Estado** pasa a ser **Error**.

------
#### [ API ]

Para adquirir un rendimiento aprovisionado, envíe una [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)solicitud con un punto final del plano de [control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Para obtener más información sobre el contenido del cuerpo de la solicitud y los parámetros que debe proporcionar para crear un rendimiento aprovisionado por unidades modelo, consulte la referencia de la [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)API de *Amazon Bedrock*.

**nota**  
Para ver los modelos básicos para los que puede adquirir Provisioned Throughput sin compromiso, consulte la documentación sobre los modelos compatibles.  
En la AWS GovCloud (US) región, solo puede adquirir el rendimiento aprovisionado para modelos personalizados sin compromiso.

La respuesta devuelve un valor `provisionedModelArn` que puede utilizar como `modelId` en la [inferencia del modelo](inference.md). Para comprobar si el rendimiento aprovisionado está listo para su uso, envíe una [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)solicitud y compruebe que se encuentra en ese estado. `InService` Si se produce un error en la actualización, su estado será `Failed` y la [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)respuesta contendrá un. `failureMessage`

[Ver ejemplos de código](prov-thru-code-examples.md)

------

# Visualización de información sobre un rendimiento aprovisionado
<a name="prov-thru-info"></a>

Para obtener información sobre un rendimiento aprovisionado que haya adquirido, elija la pestaña correspondiente al método que prefiera y, a continuación, siga estos pasos:

------
#### [ Console ]

**Visualización de información sobre un rendimiento aprovisionado**

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Seleccione **Rendimiento aprovisionado en el panel de navegación izquierdo**.

1. En la sección **Rendimiento aprovisionado**, seleccione un rendimiento aprovisionado.

1. Consulte los detalles del rendimiento aprovisionado en la sección **Descripción general del rendimiento aprovisionado** y las etiquetas asociadas a su rendimiento aprovisionado en la sección **Etiquetas**.

------
#### [ API ]

Para recuperar información sobre un rendimiento aprovisionado específico, envíe una [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)solicitud a un punto final del plano de [control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Especifique el nombre del rendimiento aprovisionado o su ARN como `provisionedModelId`.

Para obtener información sobre todos los rendimientos aprovisionados de una cuenta, envíe una [ListProvisionedModelThroughputs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListProvisionedModelThroughputs.html)solicitud a un punto final del plano de [control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Para controlar el número de resultados que se devuelven, puede especificar los siguientes parámetros opcionales:


****  

| Campo | Descripción breve | 
| --- | --- | 
| maxResults | El número máximo de resultados que se devuelven en una respuesta. | 
| nextToken | Si hay más resultados que el número que ha especificado en el campo maxResults, la respuesta devolverá un valor nextToken. Para ver el siguiente lote de resultados, envíe el valor nextToken en otra solicitud. | 

Para ver otros parámetros opcionales que puede especificar para ordenar y filtrar los resultados, consulte. [ListProvisionedModelThroughputs](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListProvisionedModelThroughputs.html)

Para enumerar todas las etiquetas de un rendimiento aprovisionado, envíe una [ListTagsForResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListTagsForResource.html)solicitud con un [punto final del plano de control de Amazon Bedrock e incluya](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) el nombre del recurso de Amazon (ARN) del rendimiento aprovisionado.

[Ver ejemplos de código](prov-thru-code-examples.md)

------

# Modificación de un rendimiento aprovisionado
<a name="prov-thru-edit"></a>

Los aspectos de un rendimiento aprovisionado que puede editar después de la compra dependen del modo de aprovisionamiento. En el caso de los rendimientos aprovisionados por unidades de modelo, solo puede editar el nombre y las etiquetas del rendimiento aprovisionado y, si se trata de un modelo personalizado, el modelo.

Con los rendimientos aprovisionados por tokens, tiene más opciones, incluida la modificación del número de tokens de entrada y salida por minuto para su rendimiento aprovisionado.

Consulte las siguientes secciones para obtener más información sobre cómo editar el tipo de rendimiento aprovisionado que desea modificar.

## Modifique un rendimiento aprovisionado por unidades modelo
<a name="prov-thru-edit-MUs"></a>

Puede editar el nombre o las etiquetas de un rendimiento aprovisionado existente.

Las siguientes restricciones se aplican al cambio del modelo al que está asociado el rendimiento aprovisionado:
+ No puede cambiar el modelo de un rendimiento aprovisionado asociado a un modelo base.
+ Si el rendimiento aprovisionado está asociado a un modelo personalizado, puede cambiar la asociación al modelo base desde el que está personalizado o a otro modelo personalizado derivado del mismo modelo base. 

Durante la actualización del rendimiento aprovisionado, puede realizar inferencias utilizando el rendimiento aprovisionado sin interrumpir el tráfico continuo de sus clientes finales. Si ha cambiado el modelo al que está asociado el rendimiento aprovisionado, es posible que no reciba los resultados del modelo anterior hasta que la actualización esté completamente implementada.

Para obtener información sobre cómo editar un rendimiento aprovisionado, elija la pestaña correspondiente al método que prefiera y, a continuación, siga estos pasos:

------
#### [ Console ]

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, elija **Rendimiento aprovisionado**.

1. En la sección **Rendimiento aprovisionado**, seleccione un rendimiento aprovisionado.

1. Elija **Edit (Edición de)**. Puede editar los siguientes campos:
   + **Nombre del rendimiento aprovisionado**: cambie el nombre del rendimiento aprovisionado.
   + **Seleccionar el modelo**: si el rendimiento aprovisionado está asociado a un modelo personalizado, puede cambiar el modelo asociado.

1. Puede editar las etiquetas asociadas al rendimiento aprovisionado en la sección **Etiquetas**. Para obtener más información, consulte [Etiquetado de los recursos de Amazon Bedrock](tagging.md).

1. Elija **Guardar las ediciones** para guardar las modificaciones.

1. La consola muestra la página de información general de **Rendimiento aprovisionado**. El **Estado** del rendimiento aprovisionado en la tabla Rendimiento aprovisionado pasa a **Actualizando**. Cuando se termine de actualizar el rendimiento aprovisionado, el **estado** pasará a ser **En servicio**. Si la actualización falla, el **Estado** pasa a ser **Error**.

------
#### [ API ]

Para editar un rendimiento aprovisionado, envíe una [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)solicitud con un punto final del plano de [control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Para obtener más información sobre el cuerpo de la solicitud y los parámetros que debe proporcionar, consulte la *referencia [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)de la API de Amazon Bedrock*.

Si la acción se realiza correctamente, la respuesta devuelve un código de estado HTTP 200. Para comprobar si el rendimiento aprovisionado está listo para su uso, envíe una [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)solicitud y compruebe que se encuentra en ese estado. `InService` No puede actualizar ni eliminar un rendimiento aprovisionado mientras tenga el estado `Updating`. Si se produce un error en la actualización, su estado será `Failed` y la [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)respuesta contendrá un. `failureMessage`

Para añadir etiquetas a un rendimiento aprovisionado, envíe una [TagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_TagResource.html)solicitud con un [punto final del plano de control de Amazon Bedrock e incluya](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) el nombre del recurso de Amazon (ARN) del rendimiento aprovisionado. El cuerpo de la solicitud contiene un campo `tags`, que es un objeto que contiene un par clave-valor que se especifica para cada etiqueta.

Para eliminar etiquetas de un rendimiento aprovisionado, envíe una [UntagResource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UntagResource.html)solicitud con un [punto final del plano de control de Amazon Bedrock e incluya](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) el nombre del recurso de Amazon (ARN) del rendimiento aprovisionado. El parámetro de solicitud `tagKeys` es una lista que contiene las claves de las etiquetas que quiere eliminar.

[Ver ejemplos de código](prov-thru-code-examples.md)

------

# Uso de un rendimiento aprovisionado con un recurso de Amazon Bedrock
<a name="prov-thru-use"></a>

Después de comprar un rendimiento aprovisionado, puede usarlo con las siguientes funciones:
+ **Inferencia del modelo**: puede probar el rendimiento aprovisionado en un entorno de consolas de Amazon Bedrock. Cuando lo tenga todo listo para implementar el rendimiento aprovisionado, configure su aplicación para invocar el modelo aprovisionado. Elija la pestaña del método que prefiera y siga estos pasos:

------
#### [ Console ]

**Uso de un rendimiento aprovisionado en el área de juego de consolas de Amazon Bedrock**

  1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

  1. En el panel de navegación de la izquierda, seleccione **Chat**, **Texto** o **Imagen** en **Áreas de juego**, según su caso de uso específico.

  1. Elija **Seleccionar el modelo**.

  1. En la columna **1. Categoría**, seleccione un proveedor o una categoría de modelo personalizado. A continuación, en la columna **2. Modelo**, seleccione el modelo al que está asociado su rendimiento aprovisionado.

  1. En la columna **3. Rendimiento**, seleccione el rendimiento aprovisionado.

  1. Seleccione **Aplicar**.

  Para aprender a utilizar las áreas de juego de Amazon Bedrock, consulte [Generación de respuestas en la consola mediante áreas de juego](playgrounds.md).

------
#### [ API ]

  Para ejecutar una inferencia mediante un rendimiento aprovisionado, envíe una solicitud [InvokeModel[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), una [conversación](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) o una solicitud [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)con un punto de ejecución de [Amazon](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt) Bedrock. Especifique el ARN del modelo aprovisionado como parámetro `modelId`. Para ver los requisitos del cuerpo de la solicitud para los distintos modelos, consulte [Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md).

  [Ver ejemplos de código](prov-thru-code-examples.md)

------
+ **Asociar un rendimiento aprovisionado con un alias de agente**: puede asociar un rendimiento aprovisionado al [crear](agents-deploy.md) o [actualizar](agents-alias-edit.md) un alias de agente. En la consola de Amazon Bedrock, puede elegir el rendimiento aprovisionado al configurar el alias o al editarlo. En la API de Amazon Bedrock, la `provisionedThroughput` especificas `routingConfiguration` cuando envías una solicitud [CreateAgentAlias](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateAgentAlias.html)o [UpdateAgentAlias](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateAgentAlias.html);.

# Eliminar un rendimiento aprovisionado o cancelar la renovación automática
<a name="prov-thru-delete"></a>

El rendimiento aprovisionado se renovará automáticamente al final de cada período de compromiso, manteniendo las configuraciones actuales de los tokens de entrada y salida.

Si no quieres conservar tu rendimiento aprovisionado, puedes eliminarlo o, en el caso del rendimiento aprovisionado por tokens, cancelar la renovación automática para evitar que se renueve cuando finalice el período actual.

## Eliminar un rendimiento aprovisionado
<a name="prov-thru-delete-del"></a>

Al eliminar un rendimiento aprovisionado, ya no podrá invocar el modelo en el nivel de rendimiento para el que lo ha comprado. Si elimina un rendimiento aprovisionado asociado a un modelo personalizado, el modelo personalizado no se eliminará. Para obtener más información sobre cómo eliminar un modelo personalizado, consulte [Eliminación de un modelo personalizado](model-customization-delete.md).

**nota**  
No puede eliminar un rendimiento aprovisionado por unidades modelo con compromiso antes de que finalice el plazo del compromiso.

Para obtener información sobre cómo eliminar un rendimiento aprovisionado, elija la pestaña correspondiente al método que prefiera y, a continuación, siga estos pasos:

------
#### [ Console ]

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, elija **Rendimiento aprovisionado**.

1. En la sección **Rendimiento aprovisionado**, seleccione un rendimiento aprovisionado.

1. Selecciona **Eliminar** en el menú desplegable **Acciones**.

1. La consola muestra un formulario modal para avisarle de que la eliminación es permanente. Seleccione **Confirmar** para continuar.

1. La eliminación del rendimiento aprovisionado surtirá efecto de inmediato.

------
#### [ API ]

Para eliminar un rendimiento aprovisionado, envíe una [DeleteProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteProvisionedModelThroughput.html)solicitud con un punto final del plano de [control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp). Especifique el nombre del rendimiento aprovisionado o su ARN como `provisionedModelId`. Si la eliminación se realiza correctamente, la respuesta devuelve un código de estado HTTP 200.

[Ver ejemplos de código](prov-thru-code-examples.md)

------

## Cancelar la renovación automática para un rendimiento aprovisionado
<a name="prov-thru-delete-cancel-auto-renew"></a>

En el caso del rendimiento aprovisionado por tokens, puedes cancelar la renovación automática en cualquier momento antes de que finalice el plazo de tu compromiso para evitar que el rendimiento aprovisionado se renueve automáticamente.

Si cancela la renovación automática, su rendimiento aprovisionado permanecerá en servicio hasta el final del período de compromiso. Se le seguirá cobrando la tarifa de aprovisionamiento completa durante el período actual, independientemente de que haga deducciones o no.

Tras cancelar la renovación automática de un rendimiento aprovisionado, no podrá realizar más modificaciones en el rendimiento aprovisionado durante el resto del plazo de compromiso.

**nota**  
La renovación automática no se puede volver a activar una vez cancelada. Si necesita un rendimiento aprovisionado después de que venza su período actual, tendrá que comprar un nuevo rendimiento aprovisionado.

Para obtener información sobre cómo cancelar la renovación automática de un rendimiento aprovisionado por tokens, selecciona la pestaña del método que prefieras y, a continuación, sigue los pasos:

------
#### [ Console ]

1. Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. En el panel de navegación de la izquierda, elija **Rendimiento aprovisionado**.

1. En la sección **Rendimiento aprovisionado**, seleccione un rendimiento aprovisionado.

1. Selecciona **Cancelar la renovación automática** en el menú desplegable **Acciones**.

1. La consola muestra un formulario modal para avisarte de que esta acción no se puede deshacer. Seleccione **Confirmar** para continuar.

1. El rendimiento aprovisionado permanecerá activo hasta el final del período de compromiso actual, tras lo cual se eliminará automáticamente.

------
#### [ API ]

Para cancelar la renovación automática de un rendimiento aprovisionado, envíe una [UpdateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_UpdateProvisionedModelThroughput.html)solicitud con un [punto final del plano de control de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) con el `disableAutoRenew` parámetro establecido en. `true` El rendimiento aprovisionado permanecerá activo hasta el final del período de compromiso actual.

[Ver ejemplos de código](prov-thru-code-examples.md)

------

# Ejemplos de código para Rendimiento aprovisionado
<a name="prov-thru-code-examples"></a>

Los siguientes ejemplos de código muestran cómo crear un rendimiento aprovisionado y cómo administrarlo e invocarlo mediante AWS CLI el SDK de Python. Puede crear un rendimiento aprovisionado a partir de un modelo básico o de un modelo que ya haya personalizado. Antes de empezar, cumpla los siguientes requisitos previos:

**Requisitos previos**

En los ejemplos siguientes se utiliza el Amazon Nova Lite modelo, cuyo identificador de modelo es`amazon.nova-lite-v1:0:24k`. Si aún no lo has hecho, solicita acceso al Amazon Nova Lite siguiendo los pasos que se indican en[Administre el acceso a los modelos mediante el SDK y la CLI](model-access.md#model-access-modify).

Si quiere adquirir Provisioned Throughput para un modelo básico diferente o un modelo personalizado, tendrá que hacer lo siguiente:

1. Busque el ID del modelo (para los modelos de base), el nombre (para los modelos personalizados) o el ARN (para cualquiera de los dos) mediante una de las siguientes acciones:
   + Si va a adquirir un rendimiento aprovisionado para un modelo básico, busque el ID o el nombre de recurso de Amazon (ARN) de un modelo que admita el aprovisionamiento de una de las siguientes maneras:
     + Busque el valor en la tabla.
     + Envíe una [ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)solicitud y especifique el `byInferenceType` valor `PROVISIONED` para ver una lista de modelos que admiten el aprovisionamiento. Busque el valor en el `modelArn` campo `modelId` o.
   + Si va a adquirir un rendimiento aprovisionado para un modelo personalizado, busque el nombre o el nombre de recurso de Amazon (ARN) del modelo que ha personalizado de una de las siguientes maneras:
     + En la consola de Amazon Bedrock, seleccione **Modelos personalizados** en el panel de navegación izquierdo. Busque el nombre de su modelo personalizado en la lista de **modelos** o selecciónelo y busque el ARN del **modelo en los detalles** del **modelo**.
     + Envíe una [ListCustomModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListCustomModels.html)solicitud y busque el `modelArn` valor `modelName` o el valor de su modelo personalizado en la respuesta.

1. Modifique la [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)solicitud `body` de los ejemplos siguientes para que coincida con el formato del cuerpo del modelo buscándolo en[Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md).

Elija la pestaña del método que prefiera y siga estos pasos:

------
#### [ AWS CLI ]

1. Envíe una [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)solicitud para crear un rendimiento aprovisionado sin compromiso. Para ello*MyPT*, ejecute el siguiente comando en una terminal:

   ```
   aws bedrock create-provisioned-model-throughput \
      --model-units 1 \
      --provisioned-model-name MyPT \
      --model-id amazon.nova-lite-v1:0:24k
   ```

1. La respuesta devuelve un `provisioned-model-arn`. La creación puede tardar unos minutos en completarse. Para comprobar su estado, envíe una [GetProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_GetProvisionedModelThroughput.html)solicitud y proporcione el nombre o el ARN del modelo aprovisionado como`provisioned-model-id`, ejecutando el siguiente comando:

   ```
   aws bedrock get-provisioned-model-throughput \
       --provisioned-model-id ${provisioned-model-arn}
   ```

1. Ejecute una inferencia con el modelo aprovisionado enviando una solicitud. [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) Proporcione el ARN del modelo aprovisionado que se devolvió en la `CreateProvisionedModelThroughput` respuesta, como. `model-id` El resultado se escribe en un archivo con el nombre de *output.txt* la carpeta actual.

   ```
   aws bedrock-runtime invoke-model \
       --model-id ${provisioned-model-arn} \
       --body '{
                   "messages": [{
                       "role": "user",
                       "content": [{
                           "text": "Hello"
                       }]
                   }],
                   "inferenceConfig": {
                       "temperature":0.7
                   }
               }' \
       --cli-binary-format raw-in-base64-out \
       output.txt
   ```

1. Envíe una [DeleteProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteProvisionedModelThroughput.html)solicitud para eliminar el rendimiento aprovisionado mediante el siguiente comando. Ya no se le cobrará por el rendimiento aprovisionado.

   ```
   aws bedrock delete-provisioned-model-throughput 
     --provisioned-model-id MyPT
   ```

------
#### [ Python (Boto) ]

En los siguientes fragmentos de código se explica cómo crear un rendimiento aprovisionado, obtener información al respecto e invocar el rendimiento aprovisionado.

1. Para crear un rendimiento aprovisionado llamado sin compromiso *MyPT* y asignar el ARN del rendimiento aprovisionado a una variable llamada, envíe la siguiente solicitud: *provisioned\$1model\$1arn* [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)

   ```
   import boto3 
   
   provisioned_model_name = 'MyPT'
   
   bedrock = boto3.client(service_name='bedrock')
   response = bedrock.create_provisioned_model_throughput(
       modelUnits=1,
       provisionedModelName=provisioned_model_name, 
       modelId='amazon.nova-lite-v1:0:24k' 
   )
                           
   provisioned_model_arn = response['provisionedModelArn']
   ```

1. La creación puede tardar unos minutos en completarse. Puede comprobar el estado con el siguiente fragmento de código. Puede proporcionar el nombre del rendimiento aprovisionado o el ARN devuelto por la [CreateProvisionedModelThroughput](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateProvisionedModelThroughput.html)respuesta como. `provisionedModelId`

   ```
   bedrock.get_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
   ```

1. Ejecute la inferencia con su modelo aprovisionado actualizado con el siguiente comando y utilizando el ARN del modelo aprovisionado como. `modelId`

   ```
   import json
   import logging
   import boto3
   
   from botocore.exceptions import ClientError
   
   
   class ImageError(Exception):
       "Custom exception for errors returned by the model"
   
       def __init__(self, message):
           self.message = message
   
   
   logger = logging.getLogger(__name__)
   logging.basicConfig(level=logging.INFO)
   
   
   def generate_text(model_id, body):
       """
       Generate text using your provisioned custom model.
       Args:
           model_id (str): The model ID to use.
           body (str) : The request body to use.
       Returns:
           response (json): The response from the model.
       """
   
       logger.info(
           "Generating text with your provisioned custom model %s", model_id)
   
       brt = boto3.client(service_name='bedrock-runtime')
   
       accept = "application/json"
       content_type = "application/json"
   
       response = brt.invoke_model(
           body=body, modelId=model_id, accept=accept, contentType=content_type
       )
       response_body = json.loads(response.get("body").read())
   
       finish_reason = response_body.get("error")
   
       if finish_reason is not None:
           raise ImageError(f"Text generation error. Error is {finish_reason}")
   
       logger.info(
           "Successfully generated text with provisioned custom model %s", model_id)
   
       return response_body
   
   
   def main():
       """
       Entrypoint for example.
       """
       try:
           logging.basicConfig(level=logging.INFO,
                               format="%(levelname)s: %(message)s")
   
           model_id = provisioned-model-arn
   
           body = json.dumps({
               "inputText": "what isAWS?"
           })
   
           response_body = generate_text(model_id, body)
           print(f"Input token count: {response_body['inputTextTokenCount']}")
   
           for result in response_body['results']:
               print(f"Token count: {result['tokenCount']}")
               print(f"Output text: {result['outputText']}")
               print(f"Completion reason: {result['completionReason']}")
   
       except ClientError as err:
           message = err.response["Error"]["Message"]
           logger.error("A client error occurred: %s", message)
           print("A client error occured: " +
                 format(message))
       except ImageError as err:
           logger.error(err.message)
           print(err.message)
   
       else:
           print(
               f"Finished generating text with your provisioned custom model {model_id}.")
   
   
   if __name__ == "__main__":
       main()
   ```

1. Elimine el rendimiento aprovisionado mediante el siguiente fragmento de código. Ya no se le cobrará por el rendimiento aprovisionado.

   ```
   bedrock.delete_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
   ```

------

# Cuotas para Amazon Bedrock
<a name="quotas"></a>

Tienes Cuenta de AWS cuotas predeterminadas, anteriormente denominadas límites, para Amazon Bedrock. Para ver las cuotas de servicio de Amazon Bedrock, realice una de las siguientes acciones:
+ Siga los pasos que se indican en [Viewing service quotas](https://docs.aws.amazon.com/servicequotas/latest/userguide/gs-request-quota.html) y seleccione el servicio **Amazon Bedrock**.
+ Consulte [Cuotas de servicio de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) en la Referencia general de AWS.

La inferencia de modelos en Amazon Bedrock se controla mediante cuotas de uso de los tokens. Algunos modelos utilizan los tokens a mayor velocidad. Para obtener más información sobre la velocidad y sobre cómo optimizar el uso de los tokens, consulte [Contabilización de los tokens en Amazon Bedrock](quotas-token-burndown.md).

Para mantener el rendimiento del servicio y garantizar un uso adecuado de Amazon Bedrock, las cuotas predeterminadas asignadas a una cuenta pueden actualizarse en función de factores regionales, el historial de pagos, el uso fraudulento o la and/or aprobación de una [solicitud de aumento de cuota](quotas-increase.md).

**Topics**
+ [Contabilización de los tokens en Amazon Bedrock](quotas-token-burndown.md)
+ [Supervisión del uso de tokens contando los tokens antes de ejecutar la inferencia](count-tokens.md)
+ [Solicitud de un aumento de las cuotas de Amazon Bedrock](quotas-increase.md)

# Contabilización de los tokens en Amazon Bedrock
<a name="quotas-token-burndown"></a>

Cuando ejecuta la inferencia del modelo, hay cuotas en la cantidad de tokens que se pueden procesar en función del modelo de Amazon Bedrock que utilice. Consulte la siguiente terminología relacionada con las cuotas de tokens:


****  

| Plazo | Definición | 
| --- | --- | 
| InputTokenCount | La métrica de tiempo de ejecución de CloudWatch Amazon Bedrock que representa la cantidad de tokens de una solicitud proporcionada como entrada al modelo. | 
| OutputTokenCount | La métrica de tiempo de ejecución de CloudWatch Amazon Bedrock que representa la cantidad de tokens generados por el modelo en respuesta a una solicitud. | 
| CacheReadInputTokens | La métrica de tiempo de ejecución de CloudWatch Amazon Bedrock que representa la cantidad de tokens de entrada que se recuperaron correctamente de una memoria caché en lugar de ser reprocesados por el modelo. Este valor es 0 si no utiliza el [almacenamiento en caché de peticiones](prompt-caching.md). | 
| CacheWriteInputTokens | La métrica de tiempo de ejecución de CloudWatch Amazon Bedrock que representa el número de tokens de entrada que se escribieron correctamente en la memoria caché. Este valor es 0 si no utiliza el [almacenamiento en caché de peticiones](prompt-caching.md). | 
| Tokens por minuto (TPM) | Una cuota que se establece AWS a nivel de modelo en función del número de tokens (tanto de entrada como de salida) que puede utilizar en un minuto. | 
| Tokens por día (TPD) | Una cuota que se establece AWS a nivel de modelo en función del número de fichas (incluidas las entradas y las salidas) que puedes usar en un día. De forma predeterminada, este valor es TPM x 24 x 60. Sin embargo, las nuevas Cuentas de AWS han reducido las cuotas. | 
| Solicitudes por minuto (RPM) | Un cupo establecido AWS a nivel de modelo en función del número de solicitudes que se pueden enviar en un minuto. | 
| max\$1tokens | Un parámetro que se proporciona en la solicitud para establecer la cantidad máxima de tokens de salida que el modelo puede generar. | 
| Velocidad de consumo | La velocidad a la que los tokens de entrada y salida se convierten en uso de cuota de tokens para el sistema de limitación. | 

La tasa de agotamiento de los modelos Anthropic Claude de la versión 3.7 y posteriores es **5 veces mayor para las fichas de salida** (1 ficha de salida consume 5 fichas de tus cuotas):

En todos los demás modelos, la velocidad de consumo es de **1:1** (1 token de salida consume 1 token de su cuota).

**Topics**
+ [Administración de las cuotas de tokens](#quotas-token-burndown-management)
+ [Impacto del parámetro max\$1tokens](#quotas-token-burndown-max-tokens)
+ [Optimización del parámetro max\$1tokens](#quotas-token-burndown-max-tokens-optimize)

## Administración de las cuotas de tokens
<a name="quotas-token-burndown-management"></a>

Cuando realiza una solicitud, los tokens se deducen de sus cuotas de TPM y TPD. Los cálculos se realizan en las siguientes etapas:
+ **Al inicio de la solicitud**: suponiendo que no haya superado su cuota de RPM, se deduce la siguiente suma de sus cuotas. La solicitud se limita si supera una cuota.

  ```
  Total input tokens + max_tokens
  ```
+ **Durante el procesamiento**: la cuota consumida por la solicitud se ajusta periódicamente para tener en cuenta la cantidad real de tokens de salida generados.
+ **Al final de la solicitud:**: la cantidad total de tokens consumidos por la solicitud se calculará de la siguiente manera y los tokens no utilizados se repondrán en su cuota:

  ```
  InputTokenCount + CacheWriteInputTokens + (OutputTokenCount x burndown rate)
  ```

  Si no utiliza el [almacenamiento en caché de peticiones](prompt-caching.md), `CacheWriteInputTokens` será 0. Los `CacheReadInputTokens` no contribuyen a este cálculo.

**nota**  
Solo se le facturará por el uso real de sus tokens.  
Por ejemplo, si utiliza Anthropic Claude Sonnet 4 y envía una solicitud que contiene 1000 tokens de entrada y genera una respuesta equivalente a 100 tokens:  
Se repondrán **1500 tokens** (1000 \$1 100 x 5) de sus cuotas de TPM y TPD.
Solo se le facturarán **1100 tokens**.

## Impacto del parámetro max\$1tokens
<a name="quotas-token-burndown-max-tokens"></a>

El valor `max_tokens` se deduce de la cuota al principio de cada solicitud. Si alcanza las cuotas de TPM antes de lo esperado, intente reducir `max_tokens` para aproximarse mejor al tamaño de las finalizaciones.

Los siguientes escenarios ofrecen ejemplos de cómo habrían funcionado las deducciones de cuota en las solicitudes completadas si se hubiera utilizado un modelo que tuviera una velocidad de consumo de cinco veces para los tokens de salida:

### Escenario 1: valor alto de max\$1tokens
<a name="quotas-token-burndown-max-tokens-too-high"></a>

Se presupone que se utilizan los siguientes parámetros:
+ **InputTokenCount: 3.000**
+ **CacheReadInputTokens:** 4.000
+ **CacheWriteInputTokens:** 1.000
+ **OutputTokenCount:** 1.000
+ **max\$1tokens:** 32 000

Se realizan las siguientes deducciones de cuota:
+ **Deducción inicial cuando se hace la solicitud:** 40 000 (= 3000 \$1 4000 \$1 1000 \$1 32 000)
+ **Deducción final ajustada una vez generada la respuesta:** 9000 (= 3000 \$1 1000 \$1 1000 x 5)

En este escenario, se podrían realizar menos solicitudes simultáneas porque el parámetro `max_tokens` estaba establecido en un valor demasiado alto. Esto reduce la simultaneidad de las solicitudes, el rendimiento y la utilización de la cuota, ya que la capacidad de la cuota de TPM se alcanzaría rápidamente.

### Escenario 2: valor optimizado de max\$1tokens
<a name="quotas-token-burndown-max-tokens-optimized"></a>

Se presupone que se utilizan los siguientes parámetros:
+ **InputTokenCount:** 3.000
+ **CacheReadInputTokens:** 4.000
+ **CacheWriteInputTokens:** 1.000
+ **OutputTokenCount:** 1.000
+ **max\$1tokens:** 1250

Se realizan las siguientes deducciones de cuota:
+ **Deducción inicial cuando se hace la solicitud:** 9250 (= 3000 \$1 4000 \$1 1000 \$1 1250)
+ **Deducción final ajustada una vez generada la respuesta:** 9000 (= 3000 \$1 1000 \$1 1000 x 5)

En este escenario, el parámetro `max_tokens` se optimizó, ya que la deducción inicial es solo ligeramente superior a la deducción ajustada final. Esto ayudó a aumentar la simultaneidad de las solicitudes, el rendimiento y la utilización de las cuotas.

## Optimización del parámetro max\$1tokens
<a name="quotas-token-burndown-max-tokens-optimize"></a>

Al optimizar el parámetro `max_tokens`, puede utilizar de manera eficiente la capacidad de cuota asignada. Para ayudarte a tomar una decisión sobre este parámetro, puedes usar Amazon CloudWatch, que recopila automáticamente las métricas de AWS los servicios, incluidos los datos de uso de los tokens en Amazon Bedrock.

Los tokens se registran en las métricas en tiempo de ejecución `InputTokenCount` y `OutputTokenCount` (para obtener más información, consulte [Métricas en tiempo de ejecución de Amazon Bedrock](monitoring.md#runtime-cloudwatch-metrics).

Para utilizar la CloudWatch supervisión como base para tomar una decisión sobre el `max_tokens` parámetro, haga lo siguiente en: Consola de administración de AWS

1. Inicia sesión en la CloudWatch consola de Amazon en [https://console.aws.amazon.com/cloudwatch.](https://console.aws.amazon.com/cloudwatch)

1. En el panel de navegación, seleccione **Paneles**.

1. Seleccione la pestaña **Paneles automáticos**.

1. Seleccione **Bedrock**.

1. En el panel **Recuentos de tokens por modelo**, seleccione el icono de expansión.

1. Seleccione parámetros de duración temporal e intervalo para que las métricas tengan en cuenta los picos de uso.

1. En el menú desplegable **Suma**, puede elegir diferentes métricas para observar el uso de los tokens. Examine estas métricas para guiar su decisión a la hora de establecer el valor de `max_tokens`.

# Supervisión del uso de tokens contando los tokens antes de ejecutar la inferencia
<a name="count-tokens"></a>

Al realizar una inferencia de modelos, la cantidad de tokens que se envían en la entrada contribuye al costo de la solicitud y a la cuota de tokens que se pueden utilizar por minuto y día. La [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)API le ayuda a estimar el uso de los tokens antes de enviar solicitudes a los modelos básicos al devolver el recuento de tokens que se utilizaría si se enviara la misma entrada al modelo en una solicitud de inferencia.

**nota**  
El uso de la [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)API no conlleva cargos.

El recuento de tokens es específico de cada modelo porque los diferentes modelos utilizan diferentes estrategias de tokenización. El recuento de tokens devuelto por esta operación coincidirá con el número de tokens que se cobraría si se enviara la misma entrada al modelo para realizar la inferencia.

Puede utilizar la API `CountTokens` para hacer lo siguiente:
+ Calcular los costos antes de enviar las solicitudes de inferencia
+ Optimizar las peticiones para que se ajusten a los límites de tokens
+ Planificar el uso de los tokens en sus aplicaciones

**Topics**
+ [Modelos y regiones compatibles para el recuento de tokens](#count-tokens-supported)
+ [Recuento de tokens en una solicitud](#count-tokens-use)
+ [Ejemplo de prueba](#count-tokens-example)

## Modelos y regiones compatibles para el recuento de tokens
<a name="count-tokens-supported"></a>

En la siguiente tabla se muestra el soporte del modelo básico para el conteo de fichas:


| Proveedor | Modelo | ID del modelo | Compatibilidad con modelos de una sola región | 
| --- | --- | --- | --- | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v1:0 |  ap-northeast-1 ap-southeast-1 eu-central-1 eu-central-2 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v 1:0 |  eu-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  | 

## Recuento de tokens en una solicitud
<a name="count-tokens-use"></a>

Para contar el número de tokens de entrada en una solicitud de inferencia, envíe una [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)solicitud con un [punto de ejecución de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt) y especifique el modelo en el encabezado y la entrada para la que se van a contar los tokens en el `body` campo. El valor del `body` campo depende de si está contando los tokens de entrada para una solicitud [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)o para una solicitud de [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html):
+ En el caso de una solicitud `InvokeModel`, el formato de `body` es una cadena que representa un objeto JSON cuyo formato depende del modelo que especifique.
+ En el caso de una solicitud `Converse`, el formato de `body` es un objeto JSON que especifica las peticiones `messages` y `system` incluidas en la conversación.

## Ejemplo de prueba
<a name="count-tokens-example"></a>

Los ejemplos de esta sección le permiten contar los tokens de una solicitud `InvokeModel` y `Converse` con Anthropic Claude 3 Haiku.

**Requisitos previos**
+ La has descargado AWS SDK para Python (Boto3) y la configuración está configurada de forma que tus credenciales y la AWS región predeterminada se reconozcan automáticamente.
+ Su identidad de IAM tiene permisos para las siguientes acciones (para obtener más información, consulte [Acciones, recursos y claves de condición de Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html)):
  + bedrock: CountTokens — Permite el uso de`CountTokens`.
  + roca madre: InvokeModel — Permite el uso de `InvokeModel` y. `Converse` Debe estar limitado a*arn:\$1\$1Partition\$1:bedrock:\$1\$1Region\$1::foundation-model/anthropic.claude-3-haiku-20240307-v1:0*, como mínimo.

Para probar a contar los tokens de una [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)solicitud, ejecuta el siguiente código de Python:

```
import boto3
import json

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = json.dumps({
    "anthropic_version": "bedrock-2023-05-31",
    "max_tokens": 500,
    "messages": [
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ]
})

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "invokeModel": {
            "body": input_to_count
        }
    }
)

print(response["inputTokens"])
```

Para probar el recuento de tokens para una solicitud [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html), ejecute el siguiente código de Python:

```
import boto3
import json 

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = {
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of France?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "The capital of France is Paris."
                }
            ]
        },
        {
            "role": "user",
            "content": [
                {
                    "text": "What is its population?"
                }
            ]
        }
    ],
    "system": [
        {
            "text": "You're an expert in geography."
        }
    ]
}

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "converse": input_to_count
    }
)

print(response["inputTokens"])
```

# Solicitud de un aumento de las cuotas de Amazon Bedrock
<a name="quotas-increase"></a>

Los pasos para solicitar un aumento de cuota para su cuenta dependen del valor de la columna **Ajustable** de la tabla de cuotas de [Cuotas de servicio de Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock):
+ Si una cuota está marcada como **Sí**, puede ajustarla siguiendo los pasos de [Solicitud de un aumento de cuota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) en la Guía del usuario de Service Quotas.
+ Para cualquier modelo, puede solicitar un aumento de las cuotas siguientes:
  + Tokens de InvokeModel por minuto entre regiones para *\$1\$1model\$1*
  + Solicitudes de InvokeModel por minuto entre regiones para *\$1\$1model\$1*
  + Tokens de InvokeModel bajo demanda por minuto para *\$1\$1model\$1*
  + Solicitudes de InvokeModel bajo demanda por minuto para *\$1\$1model\$1*
  + Número máximo de tokens de invocación del modelo por día para *\$1\$1model\$1*

  Para solicitar un aumento de cualquier combinación de estas cuotas, solicite un aumento de la cuota **Tokens de InvokeModel entre regiones por minuto para *\$1\$1model\$1*** siguiendo los pasos que se indican en [Solicitud de un aumento de cuota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) en la Guía del usuario de Service Quotas. Cuando lo haga, el equipo de soporte se pondrá en contacto con usted y le ofrecerá la opción de aumentar también las otras cuatro cuotas.
**nota**  
Debido a la abrumadora demanda, se dará prioridad a los clientes que generen tráfico que consuma la cuota que tienen asignada. La solicitud se denegará si no cumple esta condición.

# Almacenamiento en caché de peticiones para una inferencia de modelos más rápida
<a name="prompt-caching"></a>

El almacenamiento en caché de peticiones es una característica opcional que puede utilizar con los modelos compatibles en Amazon Bedrock para reducir la latencia de la respuesta de inferencia y los costos de los tokens de entrada. Al añadir partes del contexto a una caché, el modelo puede aprovechar la caché para evitar tener que volver a calcular las entradas, lo que permite a Bedrock compartir los ahorros de computación y reducir las latencias de respuesta.

El almacenamiento en caché de peticiones puede ser útil cuando tiene cargas de trabajo con contextos largos y repetitivos que se reutilizan con frecuencia para múltiples consultas. Por ejemplo, si tiene un chatbot en el que los usuarios pueden cargar documentos y hacer preguntas sobre ellos, el modelo puede tardar mucho tiempo en procesar el documento cada vez que el usuario proporciona información. Con el almacenamiento en caché de peticiones, puede almacenar en caché el documento para que las futuras consultas que contengan el documento no tengan que volver a procesarlo.

Al utilizar el almacenamiento en caché de peticiones, se le cobrará una tarifa reducida por los tokens leídos desde la memoria caché. Según el modelo, los tokens escritos en la memoria caché pueden cobrarse a una tarifa superior a la de los tokens de entrada no almacenados en caché. Los tokens que no se lean o escriban en la memoria caché se cobran según la tarifa de token estándar de ese modelo. Para obtener más información, consulte la [página de Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).

## Funcionamiento
<a name="prompt-caching-overview"></a>

Si decide utilizar el almacenamiento en caché de peticiones, Amazon Bedrock crea una caché compuesta por *puntos de control de caché*. Son marcadores que definen la subsección contigua de la petición que desea almacenar en caché (lo que suele denominarse “prefijo de petición”). Estos prefijos de petición deben ser estáticos entre las solicitudes; si se modifica el prefijo de petición en solicitudes posteriores, se producirá una pérdida de memoria caché.

Los puntos de control de caché tienen un número mínimo y máximo de tokens, según el modelo específico que utilice. Solo puede crear un punto de control de caché si el prefijo de petición total cumple con el número mínimo de tokens. Por ejemplo, el modelo Anthropic Claude 3.7 Sonnet requiere al menos 1024 tokens por punto de control de caché. Esto significa que el primer punto de control de caché se puede definir después de 1024 tokens y el segundo punto de control de caché se puede definir después de 2048 tokens. Si intenta añadir un punto de control de caché antes de alcanzar el número mínimo de tokens, la inferencia se seguirá realizando correctamente, pero el prefijo no se almacenará en caché. La caché tiene un tiempo de vida (TTL), que se restablece con cada acceso exitoso a la caché. Durante este período, se conserva el contexto de la memoria caché. Si no se realiza ningún acceso a la caché en la ventana TTL, la caché caduca. La mayoría de los modelos admiten un TTL de 5 minutos, mientras que los de Claude Opus 4,5Claude Haiku 4.5, y Claude Sonnet 4.5 también admiten una opción TTL extendida de 1 hora.

Puede utilizar el almacenamiento en caché de peticiones cada vez que obtenga inferencia de modelos en Amazon Bedrock para los modelos compatibles. Las siguientes características de Amazon Bedrock admiten el almacenamiento en caché de peticiones:

**Converse y ConverseStream APIs**  
Puede mantener una conversación con un modelo en el que especifique puntos de control de caché en sus peticiones.

**InvokeModel y InvokeModelWithResponseStream APIs**  
Puede enviar solicitudes de petición únicas en las que se habilite el almacenamiento en caché de peticiones y se especifiquen puntos de control de caché.

**Almacenamiento en caché de peticiones con inferencia entre regiones**  
El almacenamiento en caché de peticiones se puede utilizar junto con la inferencia entre regiones. La inferencia entre regiones selecciona automáticamente la AWS región óptima dentro de su geografía para atender su solicitud de inferencia, lo que maximiza los recursos disponibles y la disponibilidad del modelo. En momentos de alta demanda, estas optimizaciones pueden provocar un aumento de las escrituras en caché.

**Administración de peticiones de Amazon Bedrock**  
Al [crear](prompt-management-create.md) o [modificar](prompt-management-modify.md) una petición, puede optar por habilitar el almacenamiento en caché de peticiones. Según el modelo, puede almacenar en caché las peticiones del sistema, las instrucciones del sistema y los mensajes (del usuario y del asistente). También puede elegir deshabilitar el almacenamiento en caché de peticiones.

Le APIs proporcionan la mayor flexibilidad y un control granular sobre la memoria caché de solicitudes. Puede establecer un punto de control de caché individual dentro de sus peticiones. Puede añadirlo a la caché creando más puntos de control de caché, hasta el número máximo de puntos de control de caché permitido para el modelo específico. Para obtener más información, consulte [Modelos y regiones compatibles, y límites](#prompt-caching-models).

## Modelos y regiones compatibles, y límites
<a name="prompt-caching-models"></a>

En la siguiente tabla se muestran los modelos compatibles junto con su número mínimo de tokens, número máximo de puntos de control de caché y los campos que permiten puntos de control de caché.


| Nombre de modelo | ID del modelo | Tipo de versión | Número mínimo de tokens por punto de control de caché | Número máximo de puntos de control de caché por solicitud | TTL compatible | Campos que aceptan puntos de control de caché de peticiones | 
| --- | --- | --- | --- | --- | --- | --- | 
| Claude Opus4.5 | anthropic.claude-opus-4-5-20251101-v 1:0 | Disponibilidad general | 4.096 | 4 | 5 minutos, 1 hora | `system`, `messages` y `tools` | 
| Claude Opus4.1 | anthropic.claude-opus-4-1-20250805-v1:0 | Disponibilidad general | 1 024 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 | Disponibilidad general | 1 024 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Claude Sonnet 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 | Disponibilidad general | 1 024 | 4 | 5 minutos, 1 hora | `system`, `messages` y `tools` | 
| Claude Haiku 4.5 | anthropic.claude-haiku-4-5-20251001-v1:0 | Disponibilidad general | 4.096 | 4 | 5 minutos, 1 hora | `system`, `messages` y `tools` | 
| Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 | Disponibilidad general | 1 024 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v 1:0 | Disponibilidad general | 1 024 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 | Disponibilidad general | 2048 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 | Vista previa | 1 024 | 4 | 5 minutos | `system`, `messages` y `tools` | 
| Amazon Nova Micro | amazona. nova-micro-v1:0 | Disponibilidad general | 1K1 | 4 | 5 minutos | `system` y `messages` | 
| Amazon Nova Lite | amazon. nova-lite-v1:0 | Disponibilidad general | 1K1 | 4 | 5 minutos | `system` y `messages`2 | 
| Amazon Nova Pro | amazon. nova-pro-v1:0 | Disponibilidad general | 1K1 | 4 | 5 minutos | `system` y `messages`2 | 
| Amazon Nova Premier | amazon. nova-premier-v1:0 | Disponibilidad general | 1K1 | 4 | 5 minutos | `system` y `messages`2 | 
| Amazon Nova 2 Lite | amazon.nova-2-lite-v 1:0 | Disponibilidad general | 1K1 | 4 | 5 minutos | `system` y `messages`2 | 

1: Los modelos Amazon Nova admiten un número máximo de 20 000 tokens para el almacenamiento en caché de peticiones.

2: El almacenamiento en caché de peticiones se utiliza principalmente para peticiones de texto.

Para usar la opción TTL de 1 hora con los modelos compatibles (Claude Opus4.5, yClaude Sonnet 4.5), especifique el campo en el punto de control de la Claude Haiku 4.5 memoria caché. `ttl` En la API de Converse, `"ttl": "1h"` añádelo a tu objeto. `cachePoint` En la InvokeModel API para los modelos Claude, añade algo `"ttl": "1h"` a tu `cache_control` objeto. Si no se proporciona ningún `ttl` valor, se aplica el comportamiento de almacenamiento en caché predeterminado de 5 minutos. El TTL de 1 hora es útil para sesiones de larga duración o escenarios de procesamiento por lotes en los que desee mantener la caché durante períodos prolongados.

Amazon Nova ofrece un almacenamiento en caché de peticiones automático para todas las peticiones de texto, incluidos los mensajes `User` y `System`. Este mecanismo puede proporcionar beneficios de latencia cuando las peticiones comienzan con partes repetitivas, incluso sin una configuración explícita. Sin embargo, para ahorrar costos y garantizar beneficios de rendimiento más sistemáticos, recomendamos optar por el **almacenamiento en caché de peticiones explícito**.

## Administración de caché simplificada para los modelos Claude
<a name="prompt-caching-simplified"></a>

Para los modelos Claude, Amazon Bedrock ofrece un enfoque simplificado de administración de la memoria caché que reduce la complejidad de colocar manualmente los puntos de control de caché. En lugar de tener que especificar las ubicaciones exactas de los puntos de control de caché, puede utilizar la administración automática de caché con un único punto de interrupción al final del contenido estático.

Al habilitar la administración simplificada de la memoria caché, el sistema comprueba automáticamente si se ha accedido a la memoria caché en los límites de los bloques de contenido anteriores y analiza hasta aproximadamente 20 bloques de contenido desde el punto de interrupción especificado. Esto permite que el modelo encuentre el prefijo coincidente más largo de la caché sin necesidad de que usted prediga las ubicaciones óptimas de los puntos de control. Para usarlo, coloque un único punto de control de caché al final del contenido estático, antes de cualquier contenido dinámico o variable. El sistema encontrará automáticamente la mejor coincidencia en la caché.

Para un control más detallado, puede seguir utilizando varios puntos de control de caché (hasta cuatro para los modelos Claude) para especificar los límites exactos de la caché. Debe utilizar varios puntos de control de caché si almacena en caché secciones que cambian con diferentes frecuencias o si desea tener más control sobre qué es exactamente lo que se almacena en caché.

**importante**  
La comprobación automática de prefijos solo examina aproximadamente 20 bloques de contenido de su punto de control de caché. Si su contenido estático se extiende más allá de este intervalo, considere la posibilidad de usar varios puntos de control de caché o reestructurar la petición para colocar dentro de este intervalo el contenido que se reutiliza con más frecuencia.

## ¿Cómo utilizar de forma eficaz el almacenamiento rápido en caché
<a name="prompt-caching-effective-use"></a>

Si tiene mensajes que se utilizan con una cadencia normal (es decir, mensajes del sistema que se utilizan con más frecuencia que cada 5 minutos), siga utilizando la memoria caché de 5 minutos, ya que se seguirá actualizando sin coste adicional.

La caché de 1 hora se utiliza mejor en los siguientes escenarios:
+ Cuando tiene mensajes que probablemente se usen con menos de 5 minutos, pero con más frecuencia que cada hora. Por ejemplo, cuando un agente secundario tarda más de 5 minutos o cuando se guarda una larga conversación de chat con un usuario y, por lo general, se espera que el usuario no responda en los próximos 5 minutos.
+ Cuando la latencia es importante y es posible que tus mensajes de seguimiento se envíen más de 5 minutos.
+ Cuando desee mejorar el uso de su límite de velocidad, ya que las visitas a la memoria caché no se deducen de su límite de velocidad.

Puedes usar controles de caché de 1 hora y 5 minutos en la misma solicitud, pero con una limitación importante: las entradas de caché con un TTL más largo deben aparecer antes que las más cortas TTLs (es decir, una entrada de caché de 1 hora debe aparecer antes que cualquier entrada de caché de 5 minutos).

## Introducción
<a name="prompt-caching-get-started"></a>

En las siguientes secciones se muestra una breve descripción de cómo utilizar la característica de almacenamiento en caché de peticiones para cada método de interacción con los modelos a través de Amazon Bedrock.

### API Converse
<a name="prompt-caching-converse"></a>

La API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) ofrece opciones avanzadas y flexibles para implementar el almacenamiento en caché de peticiones en conversaciones de varios turnos. Para obtener más información sobre los requisitos de petición de cada modelo, consulte la sección anterior [Modelos y regiones compatibles, y límites](#prompt-caching-models).

**Ejemplo de solicitud**

Los siguientes ejemplos muestran un punto de control de caché establecido en los campos `messages`, `system` o `tools` de una solicitud a la API Converse. Puede colocar puntos de control en cualquiera de estas ubicaciones para una solicitud determinada. Por ejemplo, si envía una solicitud al modelo Claude 3.5 Sonnet v2, puede colocar dos puntos de control de caché en `messages`, un punto de control de caché en `system` y otro en `tools`. Para obtener información más detallada y ejemplos de cómo estructurar y enviar solicitudes de la API Converse, consulte [Cómo mantener una conversación con las operaciones de la API Converse](conversation-inference.md).

Especifique el valor ttl deseado de la siguiente manera: si no se especifica un valor ttl, se aplicará el comportamiento predeterminado de almacenamiento en caché de 5 minutos.

```
"cachePoint" : {
    "type": "default",
    "ttl" : "5m | 1h"
}
```

------
#### [ messages checkpoints ]

En este ejemplo, el primer campo `image` proporciona una imagen al modelo y el segundo campo `text` pide al modelo que analice la imagen. Siempre que el número de tokens que preceden al `cachePoint` en el objeto `content` satisfaga el número mínimo de tokens del modelo, se crea un punto de control de caché.

```
...
"messages": [
   {
        "role": "user",
        "content": [
            {
                "image": {
                    "bytes": "asfb14tscve..."
                }
            },
            {
                "text": "What's in this image?"
            },
            {
                "cachePoint": {
                    "type": "default"
                }
            }
      ]
  }
]
...
```

------
#### [ system checkpoints ]

En este ejemplo, debe proporcionar la petición del sistema en el campo `text`. Además, puede añadir un campo `cachePoint` para almacenar en caché la petición del sistema.

```
...
  "system": [ 
    {
        "text": "You are an app that creates play lists for a radio station that plays rock and pop music. Only return song names and the artist. "
    },
    {
        "cachePoint": {
            "type": "default"
        }
    }
  ],
...
```

------
#### [ tools checkpoints ]

En este ejemplo, debe proporcionar la definición de la herramienta en el campo `toolSpec`. (También puede llamar a una herramienta que haya definido previamente. Para obtener más información, consulte [Uso de una herramienta para completar una respuesta modelo de Amazon Bedrock](tool-use.md)). Después, puede añadir un campo `cachePoint` para almacenar en caché la herramienta.

```
...
toolConfig={
    "tools": [
        {
            "toolSpec": {
                "name": "top_song",
                "description": "Get the most popular song played on a radio station.",
                "inputSchema": {
                    "json": {
                        "type": "object",
                        "properties": {
                            "sign": {
                                "type": "string",
                                "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP."
                            }
                        },
                        "required": [
                            "sign"
                        ]
                    }
                }
            }
        },
        {
                "cachePoint": {
                    "type": "default"
                }
        }
    ]
}
...
```

------

La respuesta del modelo de la Converse API incluye tres campos nuevos que son específicos para solicitar el almacenamiento en caché. Los valores `CacheReadInputTokens` y `CacheWriteInputTokens` indican cuántos tokens se han leído de la caché y cuántos se han escrito en ella debido a una solicitud anterior. Los `CacheDetails` valores indican el ttl utilizado para el número de token escrito en la memoria caché. Estos son valores que Amazon Bedrock le cobra a una tarifa inferior al costo de la inferencia completa del modelo.

### InvokeModel API
<a name="prompt-caching-invoke"></a>

El almacenamiento rápido en caché está habilitado de forma predeterminada cuando llamas a la [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)API. Puede establecer puntos de control de caché en cualquier punto del cuerpo de la solicitud, de forma similar al ejemplo anterior de la API Converse.

------
#### [ Anthropic Claude ]

En el siguiente ejemplo, se muestra cómo estructurar el cuerpo de la InvokeModel solicitud para el modelo Anthropic Claude 3.5 Sonnet v2. Tenga en cuenta que el formato y los campos exactos del cuerpo de InvokeModel las solicitudes pueden variar según el modelo que elija. Para ver el formato y el contenido de los cuerpos de solicitud y respuesta para los diferentes modelos, consulte [Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md).

Especifique el valor ttl deseado como se muestra a continuación. Si no se especifica el valor ttl, se aplicará el comportamiento predeterminado de 5 minutos de almacenamiento en caché.

```
"cache_control" : {
    "type": "ephemeral",
    "ttl" : "5m | 1h"
}
```

```
body={
        "anthropic_version": "bedrock-2023-05-31",
        "system":"Reply concisely",
        "messages": [
            {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "Describe the best way to learn programming."
                },
                {
                    "type": "text",
                    "text": "Add additional context here for the prompt that meets the minimum token requirement for your chosen model.",
                    "cache_control": {
                        "type": "ephemeral"
                    }
                }
            ]
            }
        ],
        "max_tokens": 2048,
        "temperature": 0.5,
        "top_p": 0.8,
        "stop_sequences": [
            "stop"
        ],
        "top_k": 250
}
```

------
#### [ Amazon Nova ]

El siguiente ejemplo muestra cómo estructurar el cuerpo de la InvokeModel solicitud para el Amazon Nova modelo. Tenga en cuenta que el formato y los campos exactos del cuerpo de InvokeModel las solicitudes pueden variar según el modelo que elija. Para ver el formato y el contenido de los cuerpos de solicitud y respuesta para los diferentes modelos, consulte [Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md).

```
{
    "system": [{
        "text": "Reply Concisely"
    }],
    "messages": [{
        "role": "user",
        "content": [{
            "text": "Describe the best way to learn programming"
        },
        {
            "text": "Add additional context here for the prompt that meets the minimum token requirement for your chosen model.",
            "cachePoint": {
                "type": "default"
            }
        }]
    }],
    "inferenceConfig": {
        "maxTokens": 300,
        "topP": 0.1,
        "topK": 20,
        "temperature": 0.3
    }
}
```

------

Para obtener más información sobre el envío de una InvokeModel solicitud, consulte[Envíe un único mensaje con InvokeModel](inference-invoke.md).

### Entorno de pruebas
<a name="prompt-caching-playground"></a>

En un entorno de pruebas de chat de la consola de Amazon Bedrock, puede activar la opción de almacenamiento en caché de peticiones y Amazon Bedrock creará automáticamente puntos de control de caché por usted.

Siga las instrucciones de [Generación de respuestas en la consola mediante áreas de juego](playgrounds.md) para empezar a usar peticiones en un entorno de pruebas de Amazon Bedrock. En los modelos compatibles, el almacenamiento en caché de peticiones se activa automáticamente en el entorno de pruebas. Sin embargo, si no es así, haga lo siguiente para activar el almacenamiento en caché de peticiones:

1. En el panel lateral izquierdo, abra el menú **Configuraciones**.

1. Active la opción **Almacenamiento en caché de peticiones**.

1. Ejecute sus peticiones.

Cuando las respuestas combinadas de entrada y modelo alcancen la cantidad mínima requerida de tokens para un punto de control (que varía según el modelo), Amazon Bedrock creará automáticamente el primer punto de control de caché para usted. A medida que siga chateando, cada vez que alcance el número mínimo de tokens, se creará un nuevo punto de control, hasta el número máximo de puntos de control permitido para el modelo. Puede ver los puntos de control de caché en cualquier momento seleccionando **Ver los puntos de control de la caché** junto a la opción **Almacenamiento en caché de peticiones**, como se muestra en la siguiente captura de pantalla.

![\[Conmutador de interfaz de usuario para el almacenamiento en caché de peticiones en el entorno de pruebas de texto de Amazon Bedrock.\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-ui-toggle.png)


Puede ver cuántos tokens se leen y escriben en la caché debido a cada interacción con el modelo consultando la ventana emergente **Métricas de almacenamiento en caché** (![\[The metrics icon shown in model responses when prompt caching is enabled.\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-metrics-icon.png)) en las respuestas del entorno de pruebas.

![\[Cuadro de métricas de almacenamiento en caché que muestra el número de tokens leídos y escritos en la caché.\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/images/prompt-caching/bedrock-prompt-caching-metrics.png)


Si desactiva la opción de almacenamiento en caché de peticiones mientras está en medio de una conversación, puede seguir chateando con el modelo.