Endpoints e cotas de Amazon Bedrock - AWS Referência geral

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Endpoints e cotas de Amazon Bedrock

Para se conectar programaticamente a um AWS serviço, você usa um endpoint. AWS os serviços oferecem os seguintes tipos de endpoints em algumas ou em todas as AWS regiões às quais o serviço oferece suporte: IPv4 endpoints, endpoints de pilha dupla e endpoints FIPS. Alguns serviços fornecem endpoints globais. Para obter mais informações, consulte AWSEndpoints de serviço da.

As cotas de serviço, também chamadas de limites, são o número máximo de recursos ou operações de serviço da sua AWS conta. Para obter mais informações, consulte AWSService Quotes.

A seguir estão os endpoints de serviço e as cotas de serviço para este serviço.

Endpoints de serviço do Amazon Bedrock

Avião de controle Amazon Bedrock APIs

A tabela a seguir fornece uma lista de endpoints específicos de região com suporte pelo Amazon Bedrock para gerenciamento, treinamento e implantação de modelos. Use esses endpoints para operações de API do Amazon Bedrock.

Nome da região Região Endpoint Protocolo
Leste dos EUA (Ohio) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

Leste dos EUA (Norte da Virgínia) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

Oeste dos EUA (N. da Califórnia) us-west-1

bedrock.us-west-1.amazonaws.com

bedrock-fips.us-west-1.amazonaws.com

HTTPS

HTTPS

Oeste dos EUA (Oregon) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

África (Cidade do Cabo) af-south-1 bedrock.af-south-1.amazonaws.com HTTPS
Ásia-Pacífico (Hyderabad) ap-south-2 bedrock.ap-south-2.amazonaws.com HTTPS
Ásia-Pacífico (Jacarta) ap-southeast-3 bedrock.ap-southeast-3.amazonaws.com HTTPS
Ásia-Pacífico (Malásia) ap-southeast-5 bedrock.ap-southeast-5.amazonaws.com HTTPS
Ásia-Pacífico (Melbourne) ap-southeast-4 bedrock.ap-southeast-4.amazonaws.com HTTPS
Ásia-Pacífico (Mumbai) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
Ásia-Pacífico (Nova Zelândia) ap-southeast-6 bedrock.ap-southeast-6.amazonaws.com HTTPS
Ásia-Pacífico (Osaka) ap-northeast-3 bedrock.ap-northeast-3.amazonaws.com HTTPS
Ásia-Pacífico (Seul) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Singapura) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Sydney) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Taipei) ap-east-2 bedrock.ap-east-2.amazonaws.com HTTPS
Ásia-Pacífico (Tailândia) ap-southeast-7 bedrock.ap-southeast-7.amazonaws.com HTTPS
Ásia-Pacífico (Tóquio) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
Canadá (Central) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Oeste do Canadá (Calgary) ca-west-1

bedrock.ca-west-1.amazonaws.com

bedrock-fips.ca-west-1.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
Europa (Londres) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
Europa (Milão) eu-south-1 bedrock.eu-south-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
Europa (Espanha) eu-south-2 bedrock.eu-south-2.amazonaws.com HTTPS
Europa (Estocolmo) eu-north-1 bedrock.eu-north-1.amazonaws.com HTTPS
Europa (Zurique) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
Israel (Tel Aviv) il-central-1 bedrock.il-central-1.amazonaws.com HTTPS
México (Central) mx-central-1 bedrock.mx-central-1.amazonaws.com HTTPS
Oriente Médio (Barém) me-south-1 bedrock.me-south-1.amazonaws.com HTTPS
Oriente Médio (Emirados Árabes Unidos) me-central-1 bedrock.me-central-1.amazonaws.com HTTPS
América do Sul (São Paulo) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (Leste dos EUA) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (Oeste dos EUA) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Tempo de execução do Amazon Bedrock APIs

A tabela a seguir fornece uma lista de endpoints específicos de região com suporte pelo Amazon Bedrock para fazer solicitações de inferência para modelos hospedados no Amazon Bedrock. Use esses endpoints para operações de APIs runtime do Amazon Bedrock.

Nome da região Região Endpoint Protocolo
Leste dos EUA (Ohio) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

Leste dos EUA (Norte da Virgínia) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

Oeste dos EUA (Oregon) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

Ásia-Pacífico (Hyderabad) ap-south-2 bedrock-runtime.ap-south-2.amazonaws.com HTTPS
Ásia-Pacífico (Mumbai) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
Ásia-Pacífico (Osaka) ap-northeast-3 bedrock-runtime.ap-northeast-3.amazonaws.com HTTPS
Ásia-Pacífico (Seul) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Singapura) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Sydney) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Tóquio) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
Canadá (Central) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
Europa (Londres) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
Europa (Milão) eu-south-1 bedrock-runtime.eu-south-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Espanha) eu-south-2 bedrock-runtime.eu-south-2.amazonaws.com HTTPS
Europa (Estocolmo) eu-north-1 bedrock-runtime.eu-north-1.amazonaws.com HTTPS
Europa (Zurique) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
América do Sul (São Paulo) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (Leste dos EUA) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (Oeste dos EUA) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agentes do Amazon Bedrock Build-Time APIs

A tabela a seguir fornece uma lista de endpoints específicos de região com suporte pelo Amazon Bedrock para criar e gerenciar agentes e bases de conhecimento. Use esses endpoints para operações de API do Agentes para Amazon Bedrock.

Nome da região Região Endpoint Protocolo
Leste dos EUA (Norte da Virgínia) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
Oeste dos EUA (Oregon) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
Ásia-Pacífico (Singapura) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Sydney) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Tóquio) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Seul) ap-northeast-2 bedrock-agent.ap-northeast-2.amazonaws.com HTTPS
Canadá (Central) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
Europa (Frankfurt) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
Europa (Londres) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
Ásia-Pacífico (Mumbai) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
América do Sul (São Paulo) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agentes para o tempo de execução do Amazon Bedrock APIs

A tabela a seguir fornece uma lista de endpoints específicos de região com suporte pelo Amazon Bedrock para invocar agentes e consultar bases de conhecimento. Use esses endpoints para operações de APIs de runtime do Agentes para Amazon Bedrock.

Nome da região Região Endpoint Protocolo
Leste dos EUA (Norte da Virgínia) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
Oeste dos EUA (Oregon) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
Ásia-Pacífico (Singapura) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Sydney) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
Ásia-Pacífico (Tóquio) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
Ásia-Pacífico (Seul) ap-northeast-2 bedrock-agent-runtime.ap-northeast-2.amazonaws.com HTTPS
Canadá (Central) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
Europa (Frankfurt) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Irlanda) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
Europa (Londres) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
Ásia-Pacífico (Mumbai) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
América do Sul (São Paulo) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Automação de dados Amazon Bedrock APIs

A tabela a seguir fornece uma lista de endpoints específicos de região com suporte pela automação de dados para Amazon Bedrock. Os endpoints que usam a palavra runtime invocam esquemas e projetos para extrair informações de arquivos. Use esses endpoints para operações de APIs de runtime de automação de dados do Amazon Bedrock. Pde extremidade sem runtime são usados para criar esquemas e projetos para fornecer orientação de extração. Use esses endpoints para operações de buildtime da API de automação de dados do Amazon Bedrock

Nome da região Região Endpoint Protocolo
Leste dos EUA (Norte da Virgínia) us-east-1

bedrock-data-automation.us-east-1.amazonaws.com

bedrock-data-automation-runtime.us-east-1.api.aws

bedrock-data-automation-runtime.us-east-1.amazonaws.com

bedrock-data-automation.us-east-1.api.aws

bedrock-data-automation-fips.us-east-1.amazonaws.com

bedrock-data-automation-runtime-fips.us-east-1.api.aws

bedrock-data-automation-runtime-fips.us-east-1.amazonaws.com

bedrock-data-automation-fips.us-east-1.api.aws

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

Oeste dos EUA (Oregon) us-west-2

bedrock-data-automation.us-west-2.amazonaws.com

bedrock-data-automation-runtime.us-west-2.api.aws

bedrock-data-automation-runtime.us-west-2.amazonaws.com

bedrock-data-automation.us-west-2.api.aws

bedrock-data-automation-fips.us-west-2.amazonaws.com

bedrock-data-automation-runtime-fips.us-west-2.api.aws

bedrock-data-automation-runtime-fips.us-west-2.amazonaws.com

bedrock-data-automation-fips.us-west-2.api.aws

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

Ásia-Pacífico (Mumbai) ap-south-1

bedrock-data-automation.ap-south-1.amazonaws.com

bedrock-data-automation-runtime.ap-south-1.amazonaws.com

HTTPS

HTTPS

Ásia-Pacífico (Sydney) ap-southeast-2

bedrock-data-automation.ap-southeast-2.amazonaws.com

bedrock-data-automation-runtime.ap-southeast-2.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1

bedrock-data-automation.eu-central-1.amazonaws.com

bedrock-data-automation-runtime.eu-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Irlanda) eu-west-1

bedrock-data-automation.eu-west-1.amazonaws.com

bedrock-data-automation-runtime.eu-west-1.amazonaws.com

HTTPS

HTTPS

Europa (Londres) eu-west-2

bedrock-data-automation.eu-west-2.amazonaws.com

bedrock-data-automation-runtime.eu-west-2.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (Oeste dos EUA) us-gov-west-1

bedrock-data-automation.us-gov-west-1.amazonaws.com

bedrock-data-automation-runtime.us-gov-west-1.amazonaws.com

bedrock-data-automation-fips.us-gov-west-1.amazonaws.com

bedrock-data-automation-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

HTTPS

HTTPS

Amazon Bedrock Service Quotas

dica

Como o Amazon Bedrock tem um grande número de cotas, recomendamos que você visualize as Service Quotas usando o console em vez de usar a tabela abaixo. Abra as cotas do Amazon Bedrock. Use o campo de pesquisa para encontrar cotas específicas. Use o ícone de engrenagem para controlar quantas cotas são exibidas em uma página.

Nome Padrão Ajustável Description
(Otimização avançada de prompts) Trabalhos ativos por conta Cada região compatível: 20 Não Número máximo de trabalhos ativos de Otimização avançada de prompts (APO) por conta.
(Otimização avançada de prompts) Trabalhos inativos por conta Cada região com suporte: 5.000 Não Número máximo de trabalhos inativos de Otimização avançada de prompts (APO) por conta.
(Raciocínio automatizado) Anotações na política Cada região com suporte: 10 Não Número máximo de anotações em uma política de raciocínio automatizado.
(Raciocínio automatizado) CancelAutomatedReasoningPolicyBuildWorkflow solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de CancelAutomatedReasoningPolicyBuildWorkflow API por segundo.
(Raciocínio automatizado) Compilações simultâneas por política Cada região compatível: 2 Não Número máximo de compilações simultâneas por política de raciocínio automatizado.
(Raciocínio automatizado) Criação de políticas simultâneas por conta Cada região compatível: 5 Não Número máximo de compilações simultâneas de políticas de raciocínio automatizado em uma conta.
(Raciocínio automatizado) CreateAutomatedReasoningPolicy solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de CreateAutomatedReasoningPolicy API por segundo.
(Raciocínio automatizado) CreateAutomatedReasoningPolicyTestCase solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de CreateAutomatedReasoningPolicyTestCase API por segundo.
(Raciocínio automatizado) CreateAutomatedReasoningPolicyVersion solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de CreateAutomatedReasoningPolicyVersion API por segundo.
(Raciocínio automatizado) DeleteAutomatedReasoningPolicy solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de DeleteAutomatedReasoningPolicy API por segundo.
(Raciocínio automatizado) DeleteAutomatedReasoningPolicyBuildWorkflow solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de DeleteAutomatedReasoningPolicyBuildWorkflow API por segundo.
(Raciocínio automatizado) DeleteAutomatedReasoningPolicyTestCase solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de DeleteAutomatedReasoningPolicyTestCase API por segundo.
(Raciocínio automatizado) ExportAutomatedReasoningPolicyVersion solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de ExportAutomatedReasoningPolicyVersion API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicy solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicy API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyAnnotations solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyAnnotations API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyBuildWorkflow solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyBuildWorkflow API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyBuildWorkflowResultAssets solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyBuildWorkflowResultAssets API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyNextScenario solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyNextScenario API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyTestCase solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyTestCase API por segundo.
(Raciocínio automatizado) GetAutomatedReasoningPolicyTestResult solicitações por segundo Cada região com suporte: 10 Sim O número máximo de solicitações de GetAutomatedReasoningPolicyTestResult API por segundo.
(Raciocínio automatizado) ListAutomatedReasoningPolicies solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de ListAutomatedReasoningPolicies API por segundo.
(Raciocínio automatizado) ListAutomatedReasoningPolicyBuildWorkflows solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de ListAutomatedReasoningPolicyBuildWorkflows API por segundo.
(Raciocínio automatizado) ListAutomatedReasoningPolicyTestCases solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de ListAutomatedReasoningPolicyTestCases API por segundo.
(Raciocínio automatizado) ListAutomatedReasoningPolicyTestResults solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de ListAutomatedReasoningPolicyTestResults API por segundo.
(Raciocínio automatizado) Políticas por conta Cada região compatível: 100 Não Número máximo de políticas de raciocínio automatizado em uma conta.
(Raciocínio automatizado) Regras na política Cada região com suporte: 500 Não Número máximo de regras em uma política de raciocínio automatizado.
(Raciocínio automatizado) Tamanho do documento de origem (MB) Cada região compatível: 5 Não Tamanho máximo do documento de origem (MB) para a criação de uma política de raciocínio automatizado.
(Raciocínio automatizado) Tokens de documentos de origem Cada região suportada: 122.880 Não Número máximo de tokens permitidos em um documento de origem ao criar uma política de raciocínio automatizado.
(Raciocínio automatizado) StartAutomatedReasoningPolicyBuildWorkflow solicitações por segundo Cada região compatível: 1 Sim O número máximo de solicitações de StartAutomatedReasoningPolicyBuildWorkflow API por segundo.
(Raciocínio automatizado) StartAutomatedReasoningPolicyTestWorkflow solicitações por segundo Cada região compatível: 1 Sim O número máximo de solicitações de StartAutomatedReasoningPolicyTestWorkflow API por segundo.
(Raciocínio automatizado) Testes por política Cada região compatível: 100 Não Número máximo de testes por política de raciocínio automatizado.
(Raciocínio automatizado) Tipos por política Cada região compatível: 50 Não Número máximo de tipos em uma política de raciocínio automatizado.
(Raciocínio automatizado) UpdateAutomatedReasoningPolicy solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de UpdateAutomatedReasoningPolicy API por segundo.
(Raciocínio automatizado) UpdateAutomatedReasoningPolicyAnnotations solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de UpdateAutomatedReasoningPolicyAnnotations API por segundo.
(Raciocínio automatizado) UpdateAutomatedReasoningPolicyTestCase solicitações por segundo Cada região compatível: 5 Sim O número máximo de solicitações de UpdateAutomatedReasoningPolicyTestCase API por segundo.
(Raciocínio automatizado) Valores por tipo na política Cada região compatível: 50 Não Número máximo de valores por tipo em uma política de raciocínio automatizado.
(Raciocínio automatizado) Variáveis na política Cada região compatível: 200 Não Número máximo de variáveis em uma política de raciocínio automatizado.
(Raciocínio automatizado) Versões por política Cada região com suporte: 1.000 Não Número máximo de versões por política de raciocínio automatizado.
(Automação de dados) (Console) Tamanho máximo do arquivo de documento (MB) Cada região compatível: 200 Não Tamanho máximo do arquivo para o console
(Automação de dados) (Console) Número máximo de páginas por arquivo de documento Cada região compatível: 20 Não Número máximo de páginas por documento no console
(Automação de dados) CreateBlueprint - Número máximo de plantas por conta Cada região compatível: 350 Sim Número máximo de esquemas por conta
(Automação de dados) CreateBlueprintVersion - Número máximo de versões do Blueprint por Blueprint Cada região com suporte: 10 Sim Número máximo de versões por esquema
(Automação de dados) Comprimento da descrição dos campos (caracteres) Cada região com suporte: 300 Não Comprimento máximo da descrição dos campos em caracteres
(Automação de dados) InvokeBlueprintOptimizationAsync - Número máximo de trabalhos simultâneos de otimização do blueprint Cada região compatível: 3 Sim O número máximo de trabalhos abertos do Invoke Blueprint Optimization Async
(Automação de dados) InvokeBlueprintOptimizationAsync - Número máximo de trabalhos de otimização do blueprint por dia Cada região compatível: 30 Não O número máximo de trabalhos do Invoke Blueprint Optimization Async por dia
(Automação de dados) InvokeDataAutomation (Sincronização) - Documento - Número máximo de solicitações Cada região compatível: 60 Sim O número máximo de InvokeDataAutomation solicitações por minuto para a modalidade de documento
(Automação de dados) InvokeDataAutomation (Sincronização) - Imagem - Número máximo de solicitações

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 100

Sim O número máximo de InvokeDataAutomation solicitações por minuto para a modalidade de imagem
(Automação de dados) InvokeDataAutomationAsync - Áudio - Número máximo de trabalhos simultâneos

us-east-1: 20

us-west-2: 20

Cada uma das outras regiões compatíveis: 2

Sim Número máximo de trabalhos abertos Invoke Data Automation Async para áudios
(Automação de dados) InvokeDataAutomationAsync - Documento - Número máximo de trabalhos simultâneos

us-east-1:25

us-west-2:25

Cada uma das outras regiões compatíveis: 5

Sim Número máximo de trabalhos abertos Invoke Data Automation Async para documentos
(Automação de dados) InvokeDataAutomationAsync - Imagem - Número máximo de trabalhos simultâneos

us-east-1: 20

us-west-2: 20

Cada uma das outras regiões compatíveis: 5

Sim Número máximo de trabalhos abertos Invoke Data Automation Async para imagens
(Automação de dados) InvokeDataAutomationAsync - Número máximo de vagas abertas Cada região compatível: 1.800 Não Número máximo de trabalhos abertos Invoke Data Automation Async para imagens
(Automação de dados) InvokeDataAutomationAsync - Vídeo - Número máximo de trabalhos simultâneos

us-east-1: 20

us-west-2: 20

Cada uma das outras regiões suportadas: 3

Sim Número máximo de trabalhos abertos Invoke Data Automation Async para vídeos
(Automação de dados) Taxa máxima de amostragem de áudio (Hz) Cada região suportada: 48.000 Não A taxa máxima de amostragem de áudio
(Automação de dados) Máximo de esquemas por projeto (áudios) Cada região compatível: 1 Não Número máximo de esquemas por projeto para áudios
(Automação de dados) Máximo de esquemas por projeto (documentos) Cada região compatível: 40 Não Número máximo de esquemas por projeto para documentos
(Automação de dados) Máximo de esquemas por projeto (imagens) Cada região compatível: 1 Não Número máximo de esquemas por projeto para imagens
(Automação de dados) Máximo de esquemas por projeto (vídeos) Cada região compatível: 1 Não Número máximo de esquemas por projeto para vídeos
(Automação de dados) Tamanho máximo do esquema JSON (caracteres) Cada região compatível: 100.000 Não Tamanho máximo do JSON em caracteres
(Automação de dados) Níveis máximos de hierarquia de campo Cada região compatível: 1 Não Número máximo de níveis da hierarquia de campos
(Automação de dados) Número máximo de páginas por documento Cada região com suporte: 3.000 Não Número máximo de páginas por documento
(Automação de dados) Resolução máxima Cada região compatível: 8.000 Não A resolução máxima para imagens
(Automação de dados) Tamanho máximo do arquivo de áudio (MB) Cada região compatível: 2.048 Não Tamanho máximo do arquivo de áudio
(Automação de dados) Duração máxima do áudio (minutos) Cada região suportada: 240 Não A duração máxima do áudio em minutos
(Automação de dados) Tamanho máximo do arquivo de documento (MB) Cada região com suporte: 500 Não Tamanho máximo do arquivo
(Automação de dados) Tamanho máximo do arquivo de imagem (MB) Cada região compatível: 5 Não Tamanho máximo do arquivo para imagens
(Automação de dados) Número máximo de esquemas por solicitação de inferência inicial (áudios) Cada região compatível: 1 Não Número máximo de esquemas inline em Iniciar solicitação de inferência
(Automação de dados) Número máximo de esquemas por solicitação de inferência inicial (documentos) Cada região com suporte: 10 Não Número máximo de esquemas inline em Iniciar solicitação de inferência
(Automação de dados) Número máximo de esquemas por solicitação de inferência inicial (imagens) Cada região compatível: 1 Não Número máximo de esquemas inline em Iniciar solicitação de inferência
(Automação de dados) Número máximo de esquemas por solicitação de início de inferência (vídeos) Cada região compatível: 1 Não Número máximo de esquemas inline em Iniciar solicitação de inferência
(Automação de dados) Número máximo de campos de lista por esquema Cada região compatível: 15 Não Número máximo de campos de lista por esquema
(Automação de dados) Tamanho máximo do arquivo de vídeo (MB) Cada região compatível: 10,240 Não Tamanho máximo do arquivo para vídeos
(Automação de dados) Duração máxima do vídeo (minutos) Cada região suportada: 240 Não A duração máxima dos vídeos em minutos
(Automação de dados) Taxa mínima de amostragem de áudio (Hz) Cada região compatível: 8.000 Não A taxa mínima de amostragem de áudio
(Automação de dados) Duração mínima do áudio (milissegundos) Cada região com suporte: 500 Não A duração mínima do áudio em milissegundos
(Avaliação) Número de trabalhos simultâneos de avaliação automática de modelos Cada região compatível: 20 Não Número máximo de trabalhos de avaliação automática de modelos que você pode especificar de uma só vez nessa conta na região atual.
(Avaliação) Número de trabalhos de avaliação de modelos simultâneos que usam operadores humanos Cada região com suporte: 10 Não Número máximo de trabalhos de avaliação de modelos que usam operadores humanos que você pode especificar de uma só vez nessa conta na região atual.
(Avaliação) Número de métricas personalizadas Cada região com suporte: 10 Não Número máximo de métricas personalizadas que você pode especificar em um trabalho de avaliação de modelo que usa operadores humanos.
(Avaliação) Número de conjuntos de dados de prompts personalizados em um trabalho de avaliação de modelo baseado em humanos Cada região compatível: 1 Não Número máximo de conjuntos de dados de prompts personalizados que podem ser especificados em um trabalho de avaliação de modelo baseado em humanos nessa conta na região atual.
(Avaliação) Número de conjuntos de dados por trabalho Cada região compatível: 5 Não Número máximo de conjuntos de dados que pode ser especificado em um trabalho de avaliação de modelo automatizado. Isso inclui conjuntos de dados de prompts personalizados e incorporados.
(Avaliação) Número de trabalhos de avaliação Cada região com suporte: 5.000 Não Número máximo de trabalhos de avaliação de modelos que você pode criar nessa conta na região atual.
(Avaliação) Número de métricas por conjunto de dados Cada região compatível: 3 Não Número máximo de métricas que você pode especificar por conjunto de dados em um trabalho de avaliação de modelo automatizado. Isso inclui métricas personalizadas e incorporadas.
(Avaliação) Número de modelos em um trabalho de avaliação de modelos que usa operadores humanos Cada região compatível: 2 Não Número máximo de modelos que você pode especificar em um trabalho de avaliação de modelo que usa operadores humanos.
(Avaliação) Número de modelos no trabalho de avaliação automatizada de modelos Cada região compatível: 1 Não Número máximo de modelos que pode ser especificado em um trabalho de avaliação de modelo automatizado.
(Avaliação) Número de prompts em um conjunto de dados de prompts personalizados Cada região com suporte: 1.000 Não Número máximo de prompts que um conjunto de dados de prompts personalizados pode conter.
(Avaliação) Tamanho do prompt Cada região compatível: 4 Não Tamanho máximo (em KB) de um prompt individual em um conjunto de dados de prompts personalizados.
(Avaliação) Tempo de tarefa para operadores Cada região compatível: 30 Não A duração máxima (em dias) do tempo que um operador pode ter para concluir tarefas.
(Fluxos) Nós de agente por fluxo Cada região compatível: 20 Não Número máximo de nós de agente.
(Fluxos) Nós coletores por fluxo Cada região compatível: 1 Não Número máximo de nós coletores.
(Fluxos) Nós de condição por fluxo Cada região compatível: 5 Não Número máximo de nós de condições.
(Fluxos) Condições por nó de condições Cada região compatível: 5 Não Número máximo de condições por nó de condições.
(Fluxos) CreateFlow solicitações por segundo Cada região compatível: 2 Não O número máximo de CreateFlow solicitações por segundo.
(Fluxos) CreateFlowAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de CreateFlowAlias solicitações por segundo.
(Fluxos) CreateFlowVersion solicitações por segundo Cada região compatível: 2 Não O número máximo de CreateFlowVersion solicitações por segundo.
(Fluxos) DeleteFlow solicitações por segundo Cada região compatível: 2 Não O número máximo de DeleteFlow solicitações por segundo.
(Fluxos) DeleteFlowAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de DeleteFlowAlias solicitações por segundo.
(Fluxos) DeleteFlowVersion solicitações por segundo Cada região compatível: 2 Não O número máximo de DeleteFlowVersion solicitações por segundo.
(Fluxos) Aliases de fluxo por fluxo Cada região com suporte: 10 Não Número máximo de aliases de fluxo.
(Fluxos) Execuções de fluxo por conta Cada região com suporte: 1.000 Sim Número máximo de execuções de fluxo por conta.
(Fluxos) Versões de fluxo por fluxo Cada região com suporte: 10 Não Número máximo de versões de fluxo.
(Fluxos) Fluxos por conta Cada região compatível: 100 Sim Número máximo de fluxos por conta.
(Fluxos) GetFlow solicitações por segundo Cada região com suporte: 10 Não O número máximo de GetFlow solicitações por segundo.
(Fluxos) GetFlowAlias solicitações por segundo Cada região com suporte: 10 Não O número máximo de GetFlowAlias solicitações por segundo.
(Fluxos) GetFlowVersion solicitações por segundo Cada região com suporte: 10 Não O número máximo de GetFlowVersion solicitações por segundo.
(Fluxos) Nós de código inline por fluxo Cada região compatível: 5 Não Número máximo de nós de código em linha por fluxo.
(Fluxos) Nós de entrada por fluxo Cada região compatível: 1 Não Número máximo de nós de entrada de fluxo.
(Fluxos) Nós iteradores por fluxo Cada região compatível: 1 Não Número máximo de nós iteradores.
(Fluxos) Nós de base de conhecimento por fluxo Cada região compatível: 20 Não Número máximo de nós de base de conhecimento.
(Fluxos) Nós de funções do Lambda por fluxo Cada região compatível: 20 Não Número máximo de nós de funçõesdo Lambda.
(Fluxos) Nós do Lex por fluxo Cada região compatível: 5 Não Número máximo de nós do Lex.
(Fluxos) ListFlowAliases solicitações por segundo Cada região com suporte: 10 Não O número máximo de ListFlowAliases solicitações por segundo.
(Fluxos) ListFlowVersions solicitações por segundo Cada região com suporte: 10 Não O número máximo de ListFlowVersions solicitações por segundo.
(Fluxos) ListFlows solicitações por segundo Cada região com suporte: 10 Não O número máximo de ListFlows solicitações por segundo.
(Fluxos) Nós de saída por fluxo Cada região compatível: 20 Não Número máximo de nós de saída de fluxo.
(Fluxos) PrepareFlow solicitações por segundo Cada região compatível: 2 Não O número máximo de PrepareFlow solicitações por segundo.
(Fluxos) Nós de prompts por fluxo Cada região compatível: 20 Sim Número máximo de nós de prompts.
(Fluxos) Nós de recuperação do S3 por fluxo Cada região com suporte: 10 Não Número máximo de nós de recuperação do S3.
(Fluxos) Nós de armazenamento do S3 por fluxo Cada região com suporte: 10 Não Número máximo de nós de armazenamento do S3.
(Fluxos) Total de nós por fluxo Cada região compatível: 40 Não Número máximo de nós em um fluxo.
(Fluxos) UpdateFlow solicitações por segundo Cada região compatível: 2 Não O número máximo de UpdateFlow solicitações por segundo.
(Fluxos) UpdateFlowAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de UpdateFlowAlias solicitações por segundo.
(Fluxos) ValidateFlowDefinition solicitações por segundo Cada região compatível: 2 Não O número máximo de ValidateFlowDefinition solicitações por segundo.
(Barreiras de proteção) Políticas de raciocínio automatizado por barreira de proteção Cada região compatível: 2 Não Número máximo de políticas de raciocínio automatizado por barreira de proteção.
(Barreiras de proteção) Tamanho da consulta de fundamentação contextual em unidades de texto Cada região compatível: 1 Não Comprimento máximo, em unidades de texto, da consulta para fundamentação contextual
(Barreiras de proteção) Tamanho da resposta de fundamentação contextual em unidades de texto Cada região compatível: 5 Não Tamanho máximo, em unidades de texto, da resposta para fundamentação contextual
(Barreiras de proteção) Tamanho da fonte de fundamentação contextual em unidades de texto

us-east-1: 100

us-west-2: 100

Cada uma das outras regiões compatíveis: 50

Não Tamanho máximo, em unidades de texto, da fonte de fundamentação para fundamentação contextual
(Barreiras de proteção) Frases de exemplo por tópico Cada região compatível: 5 Não Número máximo de exemplos de tópicos que podem ser incluídos por tópico
(Barreiras de proteção) Barreiras de proteção por conta Cada região compatível: 100 Não Número máximo de barreiras de proteção em uma conta
(Guardrails) Unidades de texto da política de filtro ApplyGuardrail de conteúdo sob demanda por segundo

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de filtro de conteúdo por segundo
(Guardrails) Unidades de texto da política de filtro de ApplyGuardrail conteúdo sob demanda por segundo (padrão)

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de filtro de conteúdo por segundo. Isso se aplica ao modelo de política de conteúdo padrão.
(Guardrails) Unidades de texto da política de tópicos ApplyGuardrail negados sob demanda por segundo

us-east-1:50

us-west-2:50

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de tópico negado por segundo
(Guardrails) Unidades de texto da política de tópicos ApplyGuardrail negados sob demanda por segundo (padrão)

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de tópico negado por segundo. Isso se aplica ao modelo de política de tópico padrão.
(Guardrails) Informações ApplyGuardrail confidenciais sob demanda filtram unidades de texto da política por segundo

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de filtro de informações confidenciais por segundo
(Guardrails) Unidades de texto da política de filtro do ApplyGuardrail Word sob demanda por segundo

us-east-1: 200

us-west-2: 200

Cada uma das outras regiões compatíveis: 25

Sim Número máximo de unidades de texto que podem ser processadas para políticas de filtro de palavras por segundo
(Guardrails) Unidades de texto da política de fundamentação ApplyGuardrail contextual sob demanda por segundo Cada região suportada: 106 Sim Número máximo de unidades de texto que podem ser processadas para políticas de fundamentação contextual por segundo
(Guardrails) Solicitações sob demanda por segundo ApplyGuardrail

us-east-1:50

us-west-2:50

Cada uma das outras regiões compatíveis: 25

Sim O número máximo de chamadas de ApplyGuardrail API permitidas por segundo
(Barreiras de proteção) Entidades regex no filtro de informações confidenciais Cada região com suporte: 10 Não Número máximo de regexes de filtro de barreira de proteção que podem ser incluídos em uma política de informações confidenciais
(Barreiras de proteção) Comprimento do regex em caracteres Cada região com suporte: 500 Não Comprimento máximo, em caracteres, de uma regex de filtro de barreira de proteção
(Guardrails) Tópicos por barreira de proteção Cada região compatível: 30 Não Número máximo de tópicos que podem ser definidos nas políticas de tópicos de barreiras de proteção
(Grades de proteção) Versões por barreira de proteção Cada região compatível: 20 Não Número máximo de versões que uma barreira de proteção pode ter
(Barreiras de proteção) Comprimento da palavra em caracteres Cada região compatível: 100 Não Comprimento máximo de uma palavra, em caracteres, em uma lista de palavras bloqueadas
(Barreiras de proteção) Política de palavras por palavra Cada região compatível: 10.000 Não Número máximo de palavras que podem ser incluídas em uma lista de palavras bloqueadas
(Bases de conhecimento) Concorrentes IngestKnowledgeBaseDocuments e DeleteKnowledgeBaseDocuments solicitações por conta Cada região com suporte: 10 Não O número máximo de DeleteKnowledgeBaseDocuments solicitações IngestKnowledgeBaseDocuments e solicitações que podem ser executadas ao mesmo tempo em uma conta.
(Bases de conhecimento) Trabalhos de ingestão simultâneos por conta Cada região compatível: 5 Não Número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo em uma conta.
(Bases de conhecimento) Trabalhos de ingestão simultâneos por fonte de dados Cada região compatível: 1 Não Número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo para uma fonte de dados.
(Bases de conhecimento) Trabalhos de ingestão simultâneos por base de conhecimento Cada região compatível: 1 Não Número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo para uma base de conhecimento.
(Bases de conhecimento) CreateDataSource solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de CreateDataSource API por segundo.
(Bases de conhecimento) CreateKnowledgeBase solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de CreateKnowledgeBase API por segundo.
(Bases de conhecimento) Fontes de dados por base de conhecimento Cada região compatível: 5 Não Número máximo de fontes de dados por base de conhecimento.
(Bases de conhecimento) DeleteDataSource solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteDataSource API por segundo.
(Bases de conhecimento) DeleteKnowledgeBase solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteKnowledgeBase API por segundo.
(Bases de conhecimento) DeleteKnowledgeBaseDocuments solicitações por segundo Cada região compatível: 5 Não O número máximo de solicitações de DeleteKnowledgeBaseDocuments API por segundo.
(Bases de conhecimento) Arquivos a serem adicionados ou atualizados por trabalho de ingestão Cada região compatível: 5.000.000 Não Número máximo de arquivos novos e atualizados que podem ser ingeridos por trabalho de ingestão.
(Bases de conhecimento) Arquivos a serem excluídos por trabalho de ingestão Cada região compatível: 5.000.000 Não Número máximo de arquivos que podem ser excluídos por trabalho de ingestão.
(Bases de conhecimento) Arquivos a serem ingeridos por IngestKnowledgeBaseDocuments trabalho. Cada região compatível: 25 Não O número máximo de documentos que podem ser ingeridos por IngestKnowledgeBaseDocuments solicitação.
(Bases de conhecimento) GenerateQuery solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de GenerateQuery API por segundo.
(Bases de conhecimento) GetDataSource solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de GetDataSource API por segundo.
(Bases de conhecimento) GetIngestionJob solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de GetIngestionJob API por segundo.
(Bases de conhecimento) GetKnowledgeBase solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de GetKnowledgeBase API por segundo.
(Bases de conhecimento) GetKnowledgeBaseDocuments solicitações por segundo Cada região compatível: 5 Não O número máximo de solicitações de GetKnowledgeBaseDocuments API por segundo.
(Bases de conhecimento) IngestKnowledgeBaseDocuments solicitações por segundo Cada região compatível: 5 Não O número máximo de solicitações de IngestKnowledgeBaseDocuments API por segundo.
Tamanho IngestKnowledgeBaseDocuments total da carga útil (bases de conhecimento) Cada região compatível: 6 Não O tamanho máximo (em MB) da carga útil total em uma IngestKnowledgeBaseDocuments solicitação.
(Bases de conhecimento) Tamanho do arquivo do trabalho de ingestão Cada região compatível: 50 Não Tamanho máximo (em MB) de um arquivo em um trabalho de ingestão.
(Bases de conhecimento) Tamanho do trabalho de ingestão Cada região compatível: 100 Não Tamanho máximo (em GB) de um trabalho de ingestão.
(Bases de conhecimento) Bases de conhecimento por conta Cada região compatível: 100 Não Número máximo de bases de conhecimento por conta.
(Bases de conhecimento) ListDataSources solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListDataSources API por segundo.
(Bases de conhecimento) ListIngestionJobs solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListIngestionJobs API por segundo.
(Bases de conhecimento) ListKnowledgeBaseDocuments solicitações por segundo Cada região compatível: 5 Não O número máximo de solicitações de ListKnowledgeBaseDocuments API por segundo.
(Bases de conhecimento) ListKnowledgeBases solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListKnowledgeBases API por segundo.
(Bases de conhecimento) Número máximo de arquivos para o analisador de BDA Cada região com suporte: 1.000 Não Número máximo de arquivos que podem ser usados com a automação de dados do Amazon Bedrock como analisador.
(Bases de conhecimento) Número máximo de arquivos para modelos de base como um analisador Cada região com suporte: 1.000 Não Número máximo de arquivos que podem ser usados com modelos de base como um analisador.
(Bases de conhecimento) Solicitações de Rerank por segundo Cada região com suporte: 10 Não Número máximo de solicitações da API Rerank por segundo.
(Bases de conhecimento) Solicitações de Retrieve por segundo Cada região compatível: 20 Não Número máximo de solicitações da API Retrieve por segundo.
(Bases de conhecimento) RetrieveAndGenerate solicitações por segundo Cada região compatível: 20 Não O número máximo de solicitações de RetrieveAndGenerate API por segundo.
(Bases de conhecimento) RetrieveAndGenerateStream solicitações por segundo Cada região compatível: 20 Não O número máximo de solicitações de RetrieveAndGenerateStream API por segundo.
(Bases de conhecimento) StartIngestionJob solicitações por segundo Cada região suportada: 0,1 Não O número máximo de solicitações de StartIngestionJob API por segundo.
(Bases de conhecimento) UpdateDataSource solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de UpdateDataSource API por segundo.
(Bases de conhecimento) UpdateKnowledgeBase solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de UpdateKnowledgeBase API por segundo.
(Bases de conhecimento) Tamanho da consulta do usuário Cada região com suporte: 1.000 Não Tamanho máximo (em caracteres) de uma consulta do usuário.
(Personalização de modelos) Modelos personalizados por conta Cada região compatível: 100 Sim Número máximo de modelos personalizados em uma conta.
(Personalização de modelos) Implantações de modelos personalizados em andamento Cada região compatível: 2 Sim Número máximo de implantações de modelos personalizados em andamento
(Personalização de modelo) Tamanho máximo do arquivo de entrada para trabalhos de personalização de destilação Cada região compatível: 2 gigabites Não Tamanho máximo do arquivo de entrada para trabalhos de personalização de destilação.
(Personalização de modelo) Comprimento máximo da linha para trabalhos de personalização da destilação Cada região compatível: 16 kilobytes Não Comprimento máximo da linha no arquivo de entrada para trabalhos de personalização de destilação.
(Personalização de modelo) Número máximo de prompts para trabalhos de personalização de destilação Cada região compatível: 15.000 Não Número máximo de prompts necessários para trabalhos de personalização de destilação.
(Personalização de modelo) Número máximo de registros de treinamento para um trabalho de ajuste fino do Amazon Nova Canvas Cada região com suporte: 10.000 Sim Número máximo de registros permitidos para um trabalho de ajuste fino do Amazon Nova Canvas.
(Personalização de modelo) Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Amazon Nova Micro V1 Cada região suportada: 32.000 Não Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Amazon Nova Micro V1.
(Personalização de modelo) Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Amazon Nova V1 Cada região suportada: 32.000 Não Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Amazon Nova V1.
(Personalização de modelo) Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Anthropic Claude 3 haiku 20240307 V1 Cada região suportada: 32.000 Não Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Anthropic Claude 3 haiku 20240307 V1.
(Personalização de modelo) Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Llama 3.1 70B Instruct V1 Cada região compatível: 16.000 Não Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Llama 3.1 70B Instruct V1.
(Personalização de modelo) Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Llama 3.1 8B Instruct V1 Cada região suportada: 32.000 Não Comprimento máximo do contexto de ajuste fino do modelo aprendiz para trabalhos de personalização de destilação do Llama 3.1 8B Instruct V1.
(Personalização de modelo) Número mínimo de prompts para trabalhos de personalização de destilação Cada região compatível: 100 Não Número mínimo de prompts necessário para trabalhos de personalização de destilação.
(Personalização de modelo) Trabalhos de personalização programados Cada região com suporte: 10 Não Número máximo de trabalhos de personalização programados.
(Personalização do modelo) Soma das solicitações de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova 2 Lite Cada região compatível: 2.000 Não A soma das solicitações de implantação de modelos personalizados sob demanda de entrada e saída por minuto enviadas ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova 2 Lite
(Personalização de modelo) Soma das solicitações de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Lite Cada região compatível: 2.000 Não A soma das solicitações de implantação de modelos personalizados sob demanda de entrada e saída por minuto enviadas para o Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Lite
(Personalização de modelo) Soma das solicitações de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Micro Cada região compatível: 2.000 Não A soma das solicitações de implantação de modelos personalizados sob demanda de entrada e saída por minuto enviadas ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Micro
(Personalização de modelo) Soma das solicitações de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Pro Cada região compatível: 200 Não A soma das solicitações de implantação de modelos personalizados sob demanda de entrada e saída por minuto enviadas para o Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Pro
(Personalização de modelo) Soma das solicitações de implantação de modelos personalizados sob demanda por minuto para o Meta Llama 3.3 70B Instruct Cada região compatível: 400 Não A soma das solicitações de implantação de modelos personalizados sob demanda de entrada e saída por minuto enviadas ao Converse,, ConverseStream InvokeModel, e das InvokeModelWithResponseStream ações do Meta Llama 3.3 70B Instruct
(Personalização do modelo) Soma de tokens de implantação de modelos personalizados sob demanda por dia para o Amazon Nova 2 Lite Cada região compatível: 5.760.000.000 Não A soma dos tokens de implantação de modelos personalizados sob demanda de entrada e saída por dia enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova 2 Lite
(Personalização de modelo) Soma dos tokens de implantação de modelos personalizados sob demanda por dia para o Amazon Nova Lite Cada região compatível: 5.760.000.000 Não A soma dos tokens de implantação de modelos personalizados sob demanda de entrada e saída por dia enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Lite
(Personalização de modelo) Soma de tokens de implantação de modelos personalizados sob demanda por dia para o Amazon Nova Micro Cada região compatível: 5.760.000.000 Não A soma dos tokens de implantação de modelos personalizados sob demanda de entrada e saída por dia enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Micro
(Personalização de modelo) Soma de tokens de implantação de modelo personalizado sob demanda por dia para o Amazon Nova Pro Cada região compatível: 1.152.000.000 Não A soma dos tokens de implantação de modelos personalizados sob demanda de entrada e saída por dia enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Pro
(Personalização de modelo) Soma dos tokens de implantação de modelos personalizados sob demanda por dia para o Meta Llama 3.3 70B Instruct Cada região compatível: 432.000.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por dia enviados ao Converse,, ConverseStream InvokeModel, e das InvokeModelWithResponseStream ações do Meta Llama 3.3 70B Instruct
(Personalização do modelo) Soma de tokens de implantação de modelo personalizado sob demanda por minuto para o Amazon Nova 2 Lite Cada região compatível: 4.000.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por minuto enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova 2 Lite
(Personalização de modelo) Soma de tokens de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Lite Cada região compatível: 4.000.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por minuto enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Lite
(Personalização de modelo) Soma de tokens de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Micro Cada região compatível: 4.000.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por minuto enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Micro
(Personalização de modelo) Soma de tokens de implantação de modelos personalizados sob demanda por minuto para o Amazon Nova Pro Cada região suportada: 800.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por minuto enviados ao Converse,, ConverseStream InvokeModel, e InvokeModelWithResponseStream ações para o Amazon Nova Pro
(Personalização de modelo) Soma de tokens de implantação de modelos personalizados sob demanda por minuto para Meta Llama 3.3 70B Instruct Cada região compatível: 300.000 Não A soma dos tokens de implantação do modelo personalizado sob demanda de entrada e saída por minuto enviados ao Converse,, ConverseStream InvokeModel, e das InvokeModelWithResponseStream ações do Meta Llama 3.3 70B Instruct
(Personalização do modelo) Soma dos registros de treinamento e validação de um trabalho de ajuste fino do Amazon Nova 2 Lite Cada região com suporte: 20.000 Sim O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Amazon Nova 2 Lite.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Amazon Nova Lite Cada região com suporte: 20.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Amazon Nova Lite.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Amazon Nova Micro Cada região com suporte: 20.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Amazon Nova Micro.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Amazon Nova Pro Cada região com suporte: 20.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Amazon Nova Pro.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Claude 3 Haiku v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Claude 3 Haiku.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Claude 3-5-Haiku v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Claude 3-5-Haiku.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 2 13B v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 2 13B.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 2 70B v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 2 70B.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.1 70B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.1 70B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.1 8B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.1 8B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.2 11B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.2 11B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.2 1B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.2 1B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.2 3B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.2 3B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.2 90B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.2 90B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.3 70B Instruct v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.3 70B Instruct.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Image Generator G1 V1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Image Generator.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Image Generator G1 V2 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Image Generator V2.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Multimodal Embeddings G1 v1 Cada região compatível: 50.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Multimodal Embeddings.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de pré-treinamento contínuo do Titan Text G1 - Express v1 Cada região compatível: 100.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de pré-treinamento contínuo do Titan Text Express.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Express v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Text Express.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de pré-treinamento contínuo do Titan Text G1 - Lite v1 Cada região compatível: 100.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de pré-treinamento contínuo do Titan Text Lite.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Lite v1 Cada região com suporte: 10.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Text Lite.
(Personalização de modelo) Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Premier v1 Cada região com suporte: 20.000 Sim Número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Titan Text Premier.
(Personalização de modelos) Número total de implantações de modelos personalizados Cada região com suporte: 10 Sim Número total de implantações de modelos personalizados
(Gerenciamento imediato) CreatePrompt solicitações por segundo Cada região compatível: 2 Não O número máximo de CreatePrompt solicitações por segundo.
(Gerenciamento imediato) CreatePromptVersion solicitações por segundo Cada região compatível: 2 Não O número máximo de CreatePromptVersion solicitações por segundo.
(Gerenciamento imediato) DeletePrompt solicitações por segundo Cada região compatível: 2 Não O número máximo de DeletePrompt solicitações por segundo.
(Gerenciamento imediato) GetPrompt solicitações por segundo Cada região com suporte: 10 Não O número máximo de GetPrompt solicitações por segundo.
(Gerenciamento imediato) ListPrompts solicitações por segundo Cada região com suporte: 10 Não O número máximo de ListPrompts solicitações por segundo.
(Gerenciamento de prompts) Prompts por conta Cada região com suporte: 500 Sim Número máximo de prompts.
(Gerenciamento imediato) UpdatePrompt solicitações por segundo Cada região compatível: 2 Não O número máximo de UpdatePrompt solicitações por segundo.
(Gerenciamento de prompts) Versões por prompt Cada região com suporte: 10 Não Número máximo de versões por prompt.
APIs por agente Cada região compatível: 11 Sim O número máximo APIs que você pode adicionar a um agente.
Grupos de ações por agente Cada região compatível: 20 Sim Número máximo de grupos de ações que podem ser adicionados a um agente.
Colaboradores de agente por agente Cada região com suporte: 1.000 Sim Número máximo de agentes colaboradores que você pode adicionar a um agente.
Agentes por conta Cada região com suporte: 1.000 Sim Número máximo de agentes em uma conta.
AssociateAgentKnowledgeBase solicitações por segundo Cada região compatível: 6 Não O número máximo de solicitações de AssociateAgentKnowledgeBase API por segundo.
Aliases associados por agente Cada região com suporte: 10 Não Número máximo de aliases que pode ser associado a um Agente.
Bases de conhecimento associadas por agente Cada região compatível: 2 Sim Número máximo de bases de conhecimento que podem ser associadas a um agente.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Amazon Nova 2 Multimodal Embeddings V1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Amazon Nova Premier Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Amazon Nova Premier.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3 Haiku Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3 Haiku.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3 Opus Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3 Opus.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3 Sonnet Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3 Sonnet.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3.5 Haiku Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3.5 Haiku.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3.5 Sonnet Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3.5 Sonnet.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3.5 Sonnet v2 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3.5 Sonnet v2.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Claude 3.7 Sonnet Cada região compatível: 1 Sim Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude 3.7 Sonnet.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Haiku 4.5 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Claude Haiku 4.5.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Opus 4.5 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Claude Opus 4.5.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Opus 4.6 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Claude Opus 4.6.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Sonnet 4 Cada região compatível: 1 Sim Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude Sonnet 4.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Sonnet 4.5 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude Sonnet 4.5.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Claude Sonnet 4.6 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Claude Sonnet 4.6.
Tamanho do arquivo de entrada de inferência em lote (em GB) para DeepSeek V3.2 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para a DeepSeek V3.2.
Tamanho do arquivo de entrada de inferência em lote (em GB) para v3 DeepSeek Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para a DeepSeek v3.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Devstral 2 123B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Devstral 2 123B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para GLM 4.7 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o GLM 4.7.
Tamanho do arquivo de entrada de inferência em lote (em GB) para GLM 4.7 Flash Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o GLM 4.7 Flash.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Gemma 3 12B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Gemma 3 12B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Gemma 3 27B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Gemma 3 27B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Gemma 3 4B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para Gemma 3 4B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Kimi K2 Thinking Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Kimi K2 Thinking.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Kimi K2.5 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Kimi K2.5.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.1 405B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.1 405B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.1 70B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.1 70B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.1 8B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.1 8B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.2 11B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.2 11B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.2 1B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.2 1B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.2 3B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.2 3B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.2 90B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.2 90B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 3.3 70B Instruct Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 3.3 70B Instruct.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 4 Maverick Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 4 Maverick.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Llama 4 Scout Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Llama 4 Scout.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Magistral Small 2509 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Magistral Small 2509.
Tamanho do arquivo de entrada de inferência em lote (em GB) para MiniMax M2 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para MiniMax M2.
Tamanho do arquivo de entrada de inferência em lote (em GB) para MiniMax M2.1 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para MiniMax M2.1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Ministral 3 14B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Ministral 3 14B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Ministral 3 8B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Ministral 3 8B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Ministral 3B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Ministral 3B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Mistral Large 2 (24.07) Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Mistral Large 2 (24.07).
Tamanho do arquivo de entrada de inferência em lote (em GB) para Mistral Large 3 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Mistral Large 3.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Mistral Small Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Mistral Small.
Tamanho do arquivo de entrada de inferência em lote (em GB) para NVIDIA Nemotron Nano 12B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o NVIDIA Nemotron Nano 12B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para NVIDIA Nemotron Nano 3 30B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o NVIDIA Nemotron Nano 3 30B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para NVIDIA Nemotron Nano 9B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o NVIDIA Nemotron Nano 9B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Nova 2 Lite Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Nova 2 Lite.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Nova Lite V1 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Nova Lite V1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Nova Micro V1 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Nova Micro V1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Nova Pro V1 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Nova Pro V1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o OpenAI GPT OSS 120b Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o OpenAI GPT OSS 120b.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o OpenAI GPT OSS 20b Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o OpenAI GPT OSS 20b.
Tamanho do arquivo de entrada de inferência em lote (em GB) para OpenAI GPT OSS Safeguard 120b Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o OpenAI GPT OSS Safeguard 120b.
Tamanho do arquivo de entrada de inferência em lote (em GB) para OpenAI GPT OSS Safeguard 20b Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o OpenAI GPT OSS Safeguard 20b.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 235B Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 235B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 32B Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 32B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 Coder 30B Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 Coder 30B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 Coder 480B Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 Coder 480B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 Coder Next Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 Coder Next.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 Next 80B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 Next 80B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Qwen3 VL 235B Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Qwen3 VL 235B.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Titan Multimodal Embeddings G1 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Titan Multimodal Embeddings G1.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Titan Text Embeddings V2 Cada região compatível: 1 Não Tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Titan Text Embeddings V2.
Tamanho do arquivo de entrada de inferência em lote (em GB) para o Voxtral Mini 3B 2507 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Voxtral Mini 3B 2507.
Tamanho do arquivo de entrada de inferência em lote (em GB) para Voxtral Small 24B 2507 Cada região compatível: 1 Não O tamanho máximo de um único arquivo (em GB) enviado para inferência em lote para o Voxtral Small 24B 2507.
Tamanho do trabalho de inferência em lote (em GB) para Qwen3 Next 80B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 Next 80B.
Tamanho do trabalho de inferência em lote (em GB) para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 100 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1.
Tamanho do trabalho de inferência em lote (em GB) para o Amazon Nova Premier Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Amazon Nova Premier.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3 Haiku Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3 Haiku.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3 Opus Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3 Opus.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3 Sonnet Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3 Sonnet.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3.5 Haiku Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3.5 Haiku.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3.5 Sonnet Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3.5 Sonnet.
Tamanho do trabalho de inferência em lote (em GB) para o 3.5 Sonnet v2 Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3.5 Sonnet v2.
Tamanho do trabalho de inferência em lote (em GB) para o Claude 3.7 Sonnet Cada região compatível: 5 Sim Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude 3.7 Sonnet.
Tamanho do trabalho de inferência em lote (em GB) para Claude Haiku 4.5 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Claude Haiku 4.5.
Tamanho do trabalho de inferência em lote (em GB) para Claude Opus 4.5 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Claude Opus 4.5.
Tamanho do trabalho de inferência em lote (em GB) para Claude Opus 4.6 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Claude Opus 4.6.
Tamanho do trabalho de inferência em lote (em GB) para o Claude Sonnet 4 Cada região compatível: 5 Sim Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude Sonnet 4.
Tamanho do trabalho de inferência em lote (em GB) para Claude Sonnet 4.5 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote do Claude Sonnet 4.5.
Tamanho do trabalho de inferência em lote (em GB) para Claude Sonnet 4.6 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Claude Sonnet 4.6.
Tamanho do trabalho de inferência em lote (em GB) para DeepSeek a V3.2 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para DeepSeek a V3.2.
Tamanho do trabalho de inferência em lote (em GB) para v3 DeepSeek Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para DeepSeek a v3.
Tamanho do trabalho de inferência em lote (em GB) para Devstral 2 123B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Devstral 2 123B.
Tamanho do trabalho de inferência em lote (em GB) para o GLM 4.7 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o GLM 4.7.
Tamanho do trabalho de inferência em lote (em GB) para o GLM 4.7 Flash Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o GLM 4.7 Flash.
Tamanho do trabalho de inferência em lote (em GB) para Gemma 3 12B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Gemma 3 12B.
Tamanho do trabalho de inferência em lote (em GB) para Gemma 3 27B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Gemma 3 27B.
Tamanho do trabalho de inferência em lote (em GB) para Gemma 3 4B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Gemma 3 4B.
Tamanho do trabalho de inferência em lote (em GB) para Kimi K2 Thinking Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote do Kimi K2 Thinking.
Tamanho do trabalho de inferência em lote (em GB) para Kimi K2.5 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Kimi K2.5.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.1 405B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.1 405B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.1 70B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.1 70B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.1 8B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.1 8B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.2 11B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.2 11B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.2 1B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.2 1B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.2 3B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.2 3B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.2 90B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.2 90B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 3.3 70B Instruct Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 3.3 70B Instruct.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 4 Maverick Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 4 Maverick.
Tamanho do trabalho de inferência em lote (em GB) para o Llama 4 Scout Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Llama 4 Scout.
Tamanho do trabalho de inferência em lote (em GB) para Magistral Small 2509 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote do Magistral Small 2509.
Tamanho do trabalho de inferência em lote (em GB) para MiniMax M2 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para MiniMax M2.
Tamanho do trabalho de inferência em lote (em GB) para MiniMax M2.1 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para MiniMax M2.1.
Tamanho do trabalho de inferência em lote (em GB) para Ministral 3 14B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Ministral 3 14B.
Tamanho do trabalho de inferência em lote (em GB) para Ministral 3 8B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Ministral 3 8B.
Tamanho do trabalho de inferência em lote (em GB) para Ministral 3B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Ministral 3B.
Tamanho do trabalho de inferência em lote (em GB) para o Mistral Large 2 (24.07) Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Mistral Large 2 (24.07).
Tamanho do trabalho de inferência em lote (em GB) para Mistral Large 3 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para Mistral Large 3.
Tamanho do trabalho de inferência em lote (em GB) para o Mistral Small Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Mistral Small.
Tamanho do trabalho de inferência em lote (em GB) para NVIDIA Nemotron Nano 12B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o NVIDIA Nemotron Nano 12B.
Tamanho do trabalho de inferência em lote (em GB) para NVIDIA Nemotron Nano 3 30B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o NVIDIA Nemotron Nano 3 30B.
Tamanho do trabalho de inferência em lote (em GB) para NVIDIA Nemotron Nano 9B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o NVIDIA Nemotron Nano 9B.
Tamanho do trabalho de inferência em lote (em GB) para o Nova Lite V1 Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Nova Lite V1.
Tamanho do trabalho de inferência em lote (em GB) para o Nova Micro V1 Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Nova Micro V1.
Tamanho do trabalho de inferência em lote (em GB) para o Nova Pro V1 Cada região compatível: 100 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Nova Pro V1.
Tamanho do trabalho de inferência em lote (em GB) para o OpenAI GPT OSS 120b Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o OpenAI GPT OSS 120b.
Tamanho do trabalho de inferência em lote (em GB) para o OpenAI GPT OSS 20b Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o OpenAI GPT OSS 20b.
Tamanho do trabalho de inferência em lote (em GB) para OpenAI GPT OSS Safeguard 120b Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 120b.
Tamanho do trabalho de inferência em lote (em GB) para OpenAI GPT OSS Safeguard 20b Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 20b.
Tamanho do trabalho de inferência em lote (em GB) para Qwen3 235B Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 235B.
Tamanho do trabalho de inferência em lote (em GB) para Qwen3 32B Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 32B.
Tamanho do trabalho de inferência em lote (em GB) para Qwen3 Coder 30B Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 Coder 30B.
Tamanho do trabalho de inferência em lote (em GB) para o Qwen3 Coder 480B Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 Coder 480B.
Tamanho do trabalho de inferência em lote (em GB) para o Qwen3 Coder Next Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 Coder Next.
Tamanho do trabalho de inferência em lote (em GB) para Qwen3 VL 235B Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Qwen3 VL 235B.
Tamanho do trabalho de inferência em lote (em GB) para o Titan Multimodal Embeddings G1 Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Titan Multimodal Embeddings G1.
Tamanho do trabalho de inferência em lote (em GB) para Titan Text Embeddings V2 Cada região compatível: 5 Não Tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Titan Text Embeddings V2.
Tamanho do trabalho de inferência em lote (em GB) para o Voxtral Mini 3B 2507 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Voxtral Mini 3B 2507.
Tamanho do trabalho de inferência em lote (em GB) para o Voxtral Small 24B 2507 Cada região compatível: 5 Não O tamanho máximo cumulativo de todos os arquivos de entrada (em GB) incluídos no trabalho de inferência em lote para o Voxtral Small 24B 2507.
Caracteres nas instruções do agente Cada região com suporte: 20.000 Não Número máximo de caracteres nas instruções de um agente.
Trabalhos simultâneos de importação de modelos Cada região compatível: 1 Não Número máximo de trabalhos de importação de modelos que estão em andamento ao mesmo tempo.
CreateAgent solicitações por segundo Cada região compatível: 6 Não O número máximo de solicitações de CreateAgent API por segundo.
CreateAgentActionGroup solicitações por segundo Cada região compatível: 12 Não O número máximo de solicitações de CreateAgentActionGroup API por segundo.
CreateAgentAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de CreateAgentAlias API por segundo.
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.5 Haiku Cada região compatível: 2.000 Não O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude 3.5 Haiku.
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.5 Sonnet V2

us-west-2: 500

Cada uma das outras regiões compatíveis: 100

Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Haiku do Anthropic Claude 3.5 Cada região compatível: 4.000.000 Sim Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse InvokeModel e à Anthropic Claude InvokeModelWithResponseStream 3.5 Haiku. ConverseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.5 Sonnet V2

us-west-2: 4,000,000

Cada uma das outras regiões suportadas: 800.000

Sim Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelos entre regiões por minuto para o Amazon Nova 2 Lite Cada região compatível: 2.000 Não O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Lite. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova 2 Omni Cada região compatível: 2.000 Não O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Omni. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova 2 Pro Preview Cada região compatível: 100 Não O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Pro Preview. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova Lite

us-east-1:4.000

us-east-2:4.000

us-west-1:4.000

us-west-2:4.000

Cada uma das outras regiões suportadas: 400

Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Lite. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova Micro

us-east-1:4.000

us-east-2:4.000

us-west-2:4.000

Cada uma das outras regiões suportadas: 400

Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Micro. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova Premier V1 Cada região com suporte: 500 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Premier V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Amazon Nova Pro Cada região com suporte: 500 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Haiku

us-east-1: 2.000

us-west-2: 2.000

ap-northeast-1:400

ap-southeast-1 ap-southeast-1:400

Cada uma das outras regiões compatíveis: 800

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude 3 Haiku.
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Opus Cada região compatível: 100 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3 Opus. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Sonnet

us-east-1: 1.000

us-west-2: 1.000

Cada uma das outras regiões compatíveis: 200

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude 3 Sonnet.
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.5 Sonnet

us-west-2: 500

ap-northeast-1:40

ap-southeast-1 ap-southeast-1:40

eu-central-1:40

eu-west-1:40

eu-west-3:40

Cada uma das outras regiões compatíveis: 100

Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.7 Sonnet V1

us-east-1:250

us-east-2:250

us-west-2:250

eu-central-1:100

eu-north-1:100

eu-west-1:100

eu-west-3:100

Cada uma das outras regiões compatíveis: 50

Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.7 Sonnet V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Haiku 4.5 Cada região com suporte: 1.000 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Haiku 4.5. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Opus 4 V1 Cada região compatível: 200 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Opus 4.1 Cada região compatível: 50 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.5 Cada região com suporte: 500 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.5. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.6 V1 Cada região com suporte: 500 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.6 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.6 V1 1M Context Length Cada região compatível: 5 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para Anthropic Claude Opus 4.6 V1 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 Cada região compatível: 200 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 1M Context Length Cada região compatível: 5 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 Cada região com suporte: 1.000 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length Cada região compatível: 5 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.6 Cada região com suporte: 10.000 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para Anthropic Claude Sonnet 4.6 1M Context Length Cada região com suporte: 500 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Cohere Embed V4 Cada região compatível: 2.000 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelos entre regiões por minuto para DeepSeek R1 V1 Cada região compatível: 200 Não O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para DeepSeek R1 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 405B Instruct Cada região compatível: 400 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 70B Instruct Cada região compatível: 800 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 8B Instruct Cada região compatível: 1.600 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 8B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.2 1B Instruct Cada região compatível: 1.600 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 1B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.2 3B Instruct Cada região compatível: 1.600 Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 3.3 70B Instruct Cada região compatível: 800 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.3 70B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 4 Maverick V1 Cada região compatível: 800 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 4 Maverick V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Meta Llama 4 Scout V1 Cada região compatível: 800 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 4 Scout V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Mistral Pixtral Large 25.02 V1 Cada região com suporte: 10 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Mistral Pixtral Large 25.02 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Conservative Upscale Cada região compatível: 4 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Conservative Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Control Sketch Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Control Sketch. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Control Structure Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Control Structure. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Creative Upscale Cada região compatível: 4 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Creative Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Erase Object Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Erase Object. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Fast Upscale Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Fast Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Inpaint Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Inpaint. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Outpaint Cada região compatível: 4 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Outpaint. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Remove Background Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Remove Background. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Search and Recolor Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Search and Recolor. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Search and Replace Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Search and Replace. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Style Guide Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Style Guide. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Stable Image Style Transfer Cada região compatível: 20 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Stable Image Style Transfer. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Twelve Labs Marengo Cada região compatível: 200 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Twelve Labs Marengo. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Twelve Labs Pegasus Cada região compatível: 120 Sim Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Twelve Labs Pegasus. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o TwelveLabs Marengo Embed 3.0 Cada região com suporte: 1.000 Sim O número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o TwelveLabs Marengo Embed 3.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Writer AI Palmyra X4 V1 Cada região com suporte: 10 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Writer AI Palmyra X4 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo entre regiões por minuto para o Writer AI Palmyra X5 V1 Cada região com suporte: 10 Não Número máximo de solicitações entre regiões que você pode enviar para inferência de modelo em um minuto para o Writer AI Palmyra X5 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova 2 Lite Cada região suportada: 8.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Lite. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para Amazon Nova 2 Omni Cada região suportada: 8.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Omni. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova 2 Pro Preview Cada região com suporte: 1.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Pro Preview. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova Lite

us-east-1: 8,000,000

us-east-2: 8,000,000

us-west-1: 8,000,000

us-west-2: 8,000,000

Cada uma das outras regiões suportadas: 400.000

Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Lite. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova Micro

us-east-1: 8,000,000

us-east-2: 8,000,000

us-west-2: 8,000,000

Cada uma das outras regiões suportadas: 400.000

Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Micro. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova Premier V1 Cada região compatível: 2.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Premier V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Amazon Nova Pro Cada região compatível: 2.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Haiku

us-east-1: 4,000,000

us-west-2: 4,000,000

ap-northeast-1:400.000

ap-southeast-1:400.000

Cada uma das outras regiões suportadas: 600.000

Sim Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse InvokeModel e à Anthropic Claude InvokeModelWithResponseStream 3 Haiku. ConverseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Opus Cada região suportada: 800.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3 Opus. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3 Sonnet

us-east-1: 2,000,000

us-west-2: 2,000,000

Cada uma das outras regiões suportadas: 400.000

Sim Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Anthropic Claude 3 Sonnet. ConverseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.5 Sonnet

us-west-2: 4,000,000

ap-northeast-1:400.000

ap-southeast-1:400.000

eu-central-1:400.000

eu-west-1:400.000

eu-west-3:400.000

Cada uma das outras regiões suportadas: 800.000

Sim Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude 3.7 Sonnet V1

us-east-1: 1,000,000

us-east-2: 1,000,000

us-west-2: 1,000,000

eu-central-1:100.000

eu-north-1:100.000

eu-west-1:100.000

eu-west-3:100.000

Cada uma das outras regiões suportadas: 50.000

Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.7 Sonnet V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Haiku 4.5 Cada região compatível: 5.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Haiku 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Opus 4 V1 Cada região compatível: 200.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Opus 4.1 Cada região compatível: 500.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.5 Cada região compatível: 2.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.6 V1 Cada região compatível: 2.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.6 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para Anthropic Claude Opus 4.6 V1 1M Context Length Cada região com suporte: 1.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para Anthropic Claude Opus 4.6 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 Cada região compatível: 200.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 1M Context Length Cada região com suporte: 1.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 Cada região compatível: 5.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length Cada região com suporte: 1.000.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Anthropic Claude Sonnet 4.6 Cada região compatível: 5.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para Anthropic Claude Sonnet 4.6 1M Context Length Cada região com suporte: 1.000.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Cohere Embed V4 Cada região compatível: 300.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência do modelo entre regiões por minuto para DeepSeek R1 V1 Cada região compatível: 200.000 Sim O número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para DeepSeek R1 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 405B Instruct Cada região suportada: 800.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 70B Instruct Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.1 8B Instruct Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 8B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.2 1B Instruct Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 1B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.2 3B Instruct Cada região suportada: 600.000 Sim Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 3.3 70B Instruct Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.3 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 4 Maverick V1 Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 4 Maverick V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Meta Llama 4 Scout V1 Cada região suportada: 600.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Meta Llama 4 Scout V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Mistral Pixtral Large 25.02 V1 Cada região compatível: 80.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Mistral Pixtral Large 25.02 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Writer AI Palmyra X4 V1 Cada região compatível: 150.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Writer AI Palmyra X4 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo entre regiões por minuto para o Writer AI Palmyra X5 V1 Cada região compatível: 150.000 Sim Número máximo de tokens entre regiões que você pode enviar para inferência de modelo em um minuto para o Writer AI Palmyra X5 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Modelos personalizados com status de criação por conta Cada região compatível: 2 Sim Número máximo de modelos personalizados com status de criação.
DeleteAgent solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteAgent API por segundo.
DeleteAgentActionGroup solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteAgentActionGroup API por segundo.
DeleteAgentAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteAgentAlias API por segundo.
DeleteAgentVersion solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de DeleteAgentVersion API por segundo.
DisassociateAgentKnowledgeBase solicitações por segundo Cada região compatível: 4 Não O número máximo de solicitações de DisassociateAgentKnowledgeBase API por segundo.
Grupos de ações habilitados por agente Cada região compatível: 15 Sim Número máximo de grupos de ações que podem ser habilitados em um agente.
Endpoints por perfil de inferência Cada região compatível: 5 Não Número máximo de endpoints em um perfil de inferência. Um endpoint é definido por um modelo e pela região para a qual as solicitações de invocação do modelo são enviadas.
GetAgent solicitações por segundo Cada região compatível: 15 Não O número máximo de solicitações de GetAgent API por segundo.
GetAgentActionGroup solicitações por segundo Cada região compatível: 20 Não O número máximo de solicitações de GetAgentActionGroup API por segundo.
GetAgentAlias solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de GetAgentAlias API por segundo.
GetAgentKnowledgeBase solicitações por segundo Cada região compatível: 15 Não O número máximo de solicitações de GetAgentKnowledgeBase API por segundo.
GetAgentVersion solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de GetAgentVersion API por segundo.
Solicitações globais de inferência de modelos entre regiões por minuto para o Amazon Nova 2 Lite Cada região com suporte: 2.000 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Lite. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para o Amazon Nova 2 Omni Cada região com suporte: 2.000 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Omni. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para o Amazon Nova 2 Pro Preview Cada região compatível: 100 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Pro Preview. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo global entre regiões por minuto para o Anthropic Claude Haiku 4.5 Cada região com suporte: 1.000 Sim Número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Haiku 4.5. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para Anthropic Claude Opus 4.5 Cada região com suporte: 500 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.5. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para Anthropic Claude Opus 4.6 V1 Cada região com suporte: 500 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.6 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência do modelo global entre regiões por minuto para Anthropic Claude Opus 4.6 V1 1M Context Length Cada região compatível: 5 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para Anthropic Claude Opus 4.6 V1 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 Cada região compatível: 200 Sim Número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 Cada região com suporte: 1.000 Sim Número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length Cada região compatível: 5 Sim Número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para o Anthropic Claude Sonnet 4.6 Cada região com suporte: 10.000 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações globais de inferência de modelos entre regiões por minuto para Anthropic Claude Sonnet 4.6 1M Context Length Cada região com suporte: 500 Sim O número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6 1M Context Length. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo global entre regiões por minuto para o Cohere Embed V4 Cada região com suporte: 2.000 Sim Número máximo de solicitações globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Tokens globais de inferência de modelos entre regiões por dia para o Amazon Nova 2 Lite Cada região suportada: 11.520.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Amazon Nova 2 Lite. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelos entre regiões por dia para Amazon Nova 2 Omni Cada região suportada: 11.520.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Amazon Nova 2 Omni. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelos entre regiões por dia para o Amazon Nova 2 Pro Preview Cada região compatível: 1.440.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Amazon Nova 2 Pro Preview. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para o Anthropic Claude Haiku 4.5 Cada região suportada: 7.200.000.000 Não Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Haiku 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelo entre regiões por dia para Anthropic Claude Opus 4.5 Cada região suportada: 2.880.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Opus 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelo entre regiões por dia para Anthropic Claude Opus 4.6 V1 Cada região suportada: 2.880.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Opus 4.6 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para Anthropic Claude Opus 4.6 V1 1M Context Length Cada região compatível: 1.440.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para Anthropic Claude Opus 4.6 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para o Anthropic Claude Sonnet 4 V1 Cada região compatível: 288.000.000 Não Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Sonnet 4 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para o Anthropic Claude Sonnet 4.5 V1 Cada região suportada: 7.200.000.000 Não Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Sonnet 4.5 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para o Anthropic Claude Sonnet 4.5 V1 1M Context Length Cada região compatível: 1.440.000.000 Não Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelo entre regiões por dia para o Anthropic Claude Sonnet 4.6 Cada região suportada: 7.200.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Sonnet 4.6. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para Anthropic Claude Sonnet 4.6 1M Context Length Cada região compatível: 1.440.000.000 Não O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Anthropic Claude Sonnet 4.6 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por dia para o Cohere Embed V4 Cada região compatível: 432.000.000 Não Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um dia para o Cohere Embed V4. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência de modelo entre regiões por minuto para o Amazon Nova 2 Lite Cada região suportada: 8.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Lite. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência do modelo global entre regiões por minuto para o Amazon Nova 2 Omni Cada região suportada: 8.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Omni. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens globais de inferência do modelo entre regiões por minuto para o Amazon Nova 2 Pro Preview Cada região com suporte: 1.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Pro Preview. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para o Anthropic Claude Haiku 4.5 Cada região compatível: 5.000.000 Sim Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Haiku 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para Anthropic Claude Opus 4.5 Cada região compatível: 2.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para Anthropic Claude Opus 4.6 V1 Cada região compatível: 2.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Opus 4.6 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para Anthropic Claude Opus 4.6 V1 1M Context Length Cada região com suporte: 1.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para Anthropic Claude Opus 4.6 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4 V1 Cada região compatível: 200.000 Sim Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 Cada região compatível: 5.000.000 Sim Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length Cada região com suporte: 1.000.000 Sim Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência do modelo global entre regiões por minuto para o Anthropic Claude Sonnet 4.6 Cada região compatível: 5.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para Anthropic Claude Sonnet 4.6 1M Context Length Cada região com suporte: 1.000.000 Sim O número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude Sonnet 4.6 1M Context Length. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo global entre regiões por minuto para o Cohere Embed V4 Cada região compatível: 300.000 Sim Número máximo de tokens globais entre regiões que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Modelos importados por conta Cada região compatível: 3 Sim Número máximo de modelos importados em uma conta.
Perfis de inferência por conta Cada região com suporte: 1.000 Sim Número máximo de perfis de inferência em uma conta.
ListAgentActionGroups solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListAgentActionGroups API por segundo.
ListAgentAliases solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListAgentAliases API por segundo.
ListAgentKnowledgeBases solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListAgentKnowledgeBases API por segundo.
ListAgentVersions solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListAgentVersions API por segundo.
ListAgents solicitações por segundo Cada região com suporte: 10 Não O número máximo de solicitações de ListAgents API por segundo.
Número mínimo de registros por trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1.
Número mínimo de registros por trabalho de inferência em lote para o Amazon Nova Premier Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Amazon Nova Premier.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3 Haiku Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Haiku.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3 Opus Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Opus.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3 Sonnet Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Sonnet.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3.5 Haiku Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Haiku.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3.5 Sonnet Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3.5 Sonnet v2 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet v2.
Número mínimo de registros por trabalho de inferência em lote para o Claude 3.7 Sonnet Cada região compatível: 100 Sim Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.7 Sonnet.
Número mínimo de registros por trabalho de inferência em lote para Claude Haiku 4.5 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Haiku 4.5.
Número mínimo de registros por trabalho de inferência em lote para Claude Opus 4.5 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Opus 4.5.
Número mínimo de registros por trabalho de inferência em lote para Claude Opus 4.6 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Opus 4.6.
Número mínimo de registros por trabalho de inferência em lote para o Claude Sonnet 4 Cada região compatível: 100 Sim Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.
Número mínimo de registros por tarefa de inferência em lote para Claude Sonnet 4.5. Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.5.
Número mínimo de registros por tarefa de inferência em lote para Claude Sonnet 4.6 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.6.
Número mínimo de registros por trabalho de inferência em lote para DeepSeek a V3.2 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para a DeepSeek V3.2.
Número mínimo de registros por trabalho de inferência em lote para v3 DeepSeek Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para a DeepSeek v3.
Número mínimo de registros por trabalho de inferência em lote para Devstral 2 123B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Devstral 2 123B.
Número mínimo de registros por trabalho de inferência em lote para o GLM 4.7 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o GLM 4.7.
Número mínimo de registros por tarefa de inferência em lote para o GLM 4.7 Flash Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o GLM 4.7 Flash.
Número mínimo de registros por trabalho de inferência em lote para Gemma 3 12B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 12B.
Número mínimo de registros por trabalho de inferência em lote para Gemma 3 27B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 27B.
Número mínimo de registros por trabalho de inferência em lote para Gemma 3 4B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 4B.
Número mínimo de registros por trabalho de inferência em lote para Kimi K2 Thinking Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Kimi K2 Thinking.
Número mínimo de registros por trabalho de inferência em lote para Kimi K2.5 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Kimi K2.5.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.1 405B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 405B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.1 70B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 70B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.1 8B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 8B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.2 11B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 11B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.2 1B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 1B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.2 3B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 3B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.2 90B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 90B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 3.3 70B Instruct Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.3 70B Instruct.
Número mínimo de registros por trabalho de inferência em lote para o Llama 4 Maverick Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 4 Maverick.
Número mínimo de registros por trabalho de inferência em lote para o Llama 4 Scout Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 4 Scout.
Número mínimo de registros por tarefa de inferência em lote para Magistral Small 2509 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Magistral Small 2509.
Número mínimo de registros por trabalho de inferência em lote para MiniMax M2 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para MiniMax M2.
Número mínimo de registros por trabalho de inferência em lote para MiniMax M2.1 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para MiniMax M2.1.
Número mínimo de registros por tarefa de inferência em lote para Ministral 3 14B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Ministral 3 14B.
Número mínimo de registros por tarefa de inferência em lote para Ministral 3 8B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Ministral 3 8B.
Número mínimo de registros por trabalho de inferência em lote para o Ministral 3B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Ministral 3B.
Número mínimo de registros por trabalho de inferência em lote para o Mistral Large 2 (24.07) Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Mistral Large 2 (24.07).
Número mínimo de registros por trabalho de inferência em lote para Mistral Large 3 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Mistral Large 3.
Número mínimo de registros por trabalho de inferência em lote para o Mistral Small Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Mistral Small.
Número mínimo de registros por tarefa de inferência em lote para NVIDIA Nemotron Nano 12B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o NVIDIA Nemotron Nano 12B.
Número mínimo de registros por tarefa de inferência em lote para NVIDIA Nemotron Nano 3 30B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para NVIDIA Nemotron Nano 3 30B.
Número mínimo de registros por tarefa de inferência em lote para NVIDIA Nemotron Nano 9B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o NVIDIA Nemotron Nano 9B.
Número mínimo de registros por trabalho de inferência em lote para Nova 2 Lite Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova 2 Lite.
Número mínimo de registros por trabalho de inferência em lote para o Nova Lite V1 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Lite V1.
Número mínimo de registros por trabalho de inferência em lote para o Nova Micro V1 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Micro V1.
Número mínimo de registros por trabalho de inferência em lote para o Nova Pro V1 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Pro V1.
Número mínimo de registros por trabalho de inferência em lote para o OpenAI GPT OSS 120b Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 120b.
Número mínimo de registros por trabalho de inferência em lote para o OpenAI GPT OSS 20b Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 20b.
Número mínimo de registros por trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 120b Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 120b.
Número mínimo de registros por trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 20b Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 20b.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 235B Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 235B.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 32B Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 32B.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 Coder 30B Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder 30B.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 Coder 480B Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder 480B.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 Coder Next Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder Next.
Número mínimo de registros por trabalho de inferência em lote para o Qwen3 Next 80B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Next 80B.
Número mínimo de registros por tarefa de inferência em lote para Qwen3 VL 235B Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 VL 235B.
Número mínimo de registros por trabalho de inferência em lote para o Titan Multimodal Embeddings G1 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Titan Multimodal Embeddings G1.
Número mínimo de registros por trabalho de inferência em lote para o Titan Text Embeddings V2 Cada região compatível: 100 Não Número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Titan Text Embeddings V2.
Número mínimo de registros por tarefa de inferência em lote para o Voxtral Mini 3B 2507 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Voxtral Mini 3B 2507.
Número mínimo de registros por tarefa de inferência em lote para o Voxtral Small 24B 2507 Cada região compatível: 100 Não O número mínimo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Voxtral Small 24B 2507.
Modelo de tokens otimizados para latência máxima de invocação por dia para o Amazon Nova Pro V1 Cada região suportada: 57.600.000 Não O número máximo de tokens que você pode enviar para inferência de modelo com latência otimizada em um dia para o Amazon Nova Pro V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Número máximo de tokens de invocação do modelo por dia para o Amazon Nova 2 Lite (o dobro para chamadas entre regiões) Cada região compatível: 5.760.000.000 Não Número máximo diário de tokens para inferência de modelos para o Amazon Nova 2 Lite. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Amazon Nova 2 Omni (o dobro para chamadas entre regiões) Cada região compatível: 5.760.000.000 Não Número máximo diário de tokens para inferência de modelos para o Amazon Nova 2 Omni. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Amazon Nova 2 Pro Preview (dobrado para chamadas entre regiões) Cada região compatível: 720.000.000 Não Número máximo diário de tokens para inferência de modelos para o Amazon Nova 2 Pro Preview. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Amazon Nova Premier V1 (dobrado para chamadas entre regiões) Cada região compatível: 1.440.000.000 Não Máximo diário de tokens para inferência de modelo para o Amazon Nova Premier V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Anthropic Claude 3 Haiku (dobrado para chamadas entre regiões)

us-east-1:2.880.000.000

us-west-2:2.880.000.000

ap-northeast-1:288.000.000

ap-southeast-1:288.000.000

Cada uma das outras regiões suportadas: 432.000.000

Não Número máximo diário de tokens para inferência de modelos para Anthropic Claude 3 Haiku. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Anthropic Claude 3.5 Haiku (dobrado para chamadas entre regiões) Cada região suportada: 2.880.000.000 Não Número máximo diário de tokens para inferência de modelos para Anthropic Claude 3.5 Haiku. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Anthropic Claude 3.5 Sonnet V1 (dobrado para chamadas entre regiões) Cada região suportada: 2.880.000.000 Não Número máximo diário de tokens para inferência de modelo para Anthropic Claude 3.5 Sonnet V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Anthropic Claude 3.5 Sonnet V2 (dobrado para chamadas entre regiões)

us-east-1:2.880.000.000

us-west-2:2.880.000.000

Cada uma das outras regiões suportadas: 576.000.000

Não Número máximo diário de tokens para inferência de modelo para Anthropic Claude 3.5 Sonnet V2. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude 3.7 Sonnet V1 (dobrado para chamadas entre regiões) Cada região compatível: 720.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude 3.7 Sonnet V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Haiku 4.5 (dobrado para chamadas entre regiões) Cada região suportada: 3.600.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Haiku 4.5. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Opus 4 V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Opus 4 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Opus 4.1 (dobrado para chamadas entre regiões) Cada região compatível: 360.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Opus 4.1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Anthropic Claude Opus 4.5 (dobrado para chamadas entre regiões) Cada região compatível: 1.440.000.000 Não Número máximo diário de tokens para inferência de modelos para Anthropic Claude Opus 4.5. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Anthropic Claude Opus 4.6 com comprimento de contexto de 1 milhão (dobrado para chamadas entre regiões) Cada região compatível: 720.000.000 Não Número máximo diário de tokens para inferência de modelo para Anthropic Claude Opus 4.6 1M Context Length. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Anthropic Claude Opus 4.6 V1 (dobrado para chamadas entre regiões) Cada região compatível: 1.440.000.000 Não Número máximo diário de tokens para inferência de modelo para Anthropic Claude Opus 4.6 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Sonnet 4 V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Sonnet 4 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Sonnet 4 V1 1M Context Length (dobrado para chamadas entre regiões) Cada região compatível: 720.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Sonnet 4 V1 1M Context Length. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Anthropic Claude Sonnet 4.5 V1 (dobrado para chamadas entre regiões) Cada região suportada: 3.600.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Sonnet 4.5 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Máximo de tokens de invocação de modelo por dia para o Anthropic Claude Sonnet 4.5 V1 1M Context Length (dobrado para chamadas entre regiões) Cada região compatível: 720.000.000 Não Máximo diário de tokens para inferência de modelo para o Anthropic Claude Sonnet 4.5 V1 1M Context Length. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Anthropic Claude Sonnet 4.6 (dobrado para chamadas entre regiões) Cada região suportada: 3.600.000.000 Não Número máximo diário de tokens para inferência de modelos para Anthropic Claude Sonnet 4.6. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Cohere Embed V4 (dobrado para chamadas entre regiões) Cada região compatível: 216.000.000 Não Máximo diário de tokens para inferência de modelo para o Cohere Embed V4. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para DeepSeek R1 V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000 Não Tokens máximos diários para inferência de modelo para DeepSeek R1 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para DeepSeek V3 V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para DeepSeek V3 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para a DeepSeek V3.2 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para a DeepSeek V3.2. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o GPT OSS Safeguard 120B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o GPT OSS Safeguard 120B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o GPT OSS Safeguard 20B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o GPT OSS Safeguard 20B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Gemma 3 12B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para Gemma 3 12B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Gemma 3 27B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para Gemma 3 27B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Gemma 3 4B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para Gemma 3 4B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Kimi K2 Thinking (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelos para Kimi K2 Thinking. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Magistral Small 1.2 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelos para Magistral Small 1.2. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Minimax M2 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para Minimax M2. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Minimax M2.1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para Minimax M2.1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Ministral 14B 3.0 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o Ministral 14B 3.0. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Ministral 3B 3.0 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o Ministral 3B 3.0. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Ministral 8B 3.0 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o Ministral 8B 3.0. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Mistral Devstral 2 123b (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para Mistral Devstral 2 123b. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Mistral Large 3 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para Mistral Large 3. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Moonshot AI Kimi K2.5 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para Moonshot AI Kimi K2.5. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação de modelos por dia para o NVIDIA Nemotron Nano 2 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelos para NVIDIA Nemotron Nano 2. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para NVIDIA Nemotron Nano 2 VL (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelos para NVIDIA Nemotron Nano 2 VL. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Nemotron Nano 3 30B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para Nemotron Nano 3 30B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o OpenAI GPT OSS 120B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o OpenAI GPT OSS 120B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o OpenAI GPT OSS 20B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o OpenAI GPT OSS 20B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Qwen3 235B a22b 2507 V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo de tokens diários para inferência de modelo para o Qwen3 235B a22b 2507 V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Tokens máximos de invocação de modelo por dia para o Qwen3 32B V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o Qwen3 32B V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Máximo de tokens de invocação de modelo por dia para o Qwen3 Coder 30B a3b V1 (duplicado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo de tokens diários para inferência de modelo para o Qwen3 Coder 30B a3b V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Máximo de tokens de invocação de modelo por dia para o Qwen3 Coder 480B a35b V1 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo de tokens diários para inferência de modelo para o Qwen3 Coder 480B a35b V1. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Número máximo de tokens de invocação do modelo por dia para o Qwen3 Coder Next (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para o Qwen3 Coder Next. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Qwen3 Next 80B A3B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para Qwen3 Next 80B A3B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Qwen3 VL 235B A22B (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Tokens máximos diários para inferência de modelo para Qwen3 VL 235B A22B. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Voxtral Mini 1.0 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelos para o Voxtral Mini 1.0. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para o Voxtral Small 1.0 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para o Voxtral Small 1.0. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Z.ai GLM-4.7 (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Máximo diário de tokens para inferência de modelo para Z.ai GLM-4.7. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Modelo de tokens máximos de invocação por dia para Z.ai GLM-4.7 Flash (dobrado para chamadas entre regiões) Cada região compatível: 144.000.000.000 Não Número máximo diário de tokens para inferência de modelo para Z.ai GLM-4.7 Flash. Combina a soma dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream Duplicado para chamadas entre regiões; não aplicável em caso de aumento de TPM aprovado.
Unidades de modelo para Throughputs provisionados sem compromisso entre modelos base Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser distribuídas em Throughputs provisionados sem compromisso para modelos base
Unidades de modelo para Throughputs provisionados sem compromisso entre modelos personalizados Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser distribuídas em Throughputs provisionados sem compromisso para modelos personalizados
Unidades de modelo por modelo provisionado para o AI21 Labs Jurassic-2 Mid Cada região compatível: 0 Sim O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Labs Jurassic-2 Mid. AI21
Unidades de modelo por modelo provisionado para o AI21 Labs Jurassic-2 Ultra Cada região compatível: 0 Sim O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Labs Jurassic-2 Ultra. AI21
Unidades de modelo por modelo provisionado para Amazon Nova 2 Lite V1.0 256K Cada região compatível: 0 Sim O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Nova 2 Lite V1.0 256K.
Unidades de modelo por modelo provisionado para o Amazon Nova Canvas Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Nova Canvas.
Unidades de modelo por modelo provisionado para o Amazon Titan Embeddings G1 - Text Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Embeddings G1 - Text.
Unidades de modelo por modelo provisionado para o Gerador de Imagens do Amazon Titan G1 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Gerador de Imagens do Amazon Titan G1.
Unidades de modelo por modelo provisionado para o Gerador de Imagens do Amazon Titan G2 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Gerador de Imagens do Amazon Titan G2.
Unidades de modelo por modelo provisionado para o Amazon Titan Lite V1 4K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Text Lite V1 4K.
Unidades de modelo por modelo provisionado para o Amazon Titan Multimodal Embeddings G1 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Multimodal Embeddings G1.
Unidades de modelo por modelo provisionado para o Amazon Titan Text Embeddings V2 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Text Embeddings V2.
Unidades de modelo por modelo provisionado para o Amazon Titan Text G1 - Express 8K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Text G1 - Express 8K.
Unidades de modelo por modelo provisionado para o Amazon Titan Text Premier V1 32K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Amazon Titan Text Premier V1 32K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3 Haiku 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3 Haiku 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3 Haiku 48K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3 Haiku 48K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3 Sonnet 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3 Sonnet 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3 Sonnet 28K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3 Sonnet 28K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Haiku 16K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Haiku 16K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Haiku 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Haiku 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Haiku 64K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Haiku 64K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet 18K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet 18K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet 51K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet 51K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 18K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 18K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 51K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet V2 51K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 18K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 18K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 200K.
Unidades de modelo por modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 51K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude 3.7 V1.0 Sonnet 51K.
Unidades de modelo por modelo provisionado para o Anthropic Claude Instant V1 100K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude Instant V1 100K.
Unidades de modelo por modelo provisionado para o Anthropic Claude V2 100K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude V2 100K.
Unidades de modelo por modelo provisionado para o Anthropic Claude V2 18K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude V2 18K.
Unidades de modelo por modelo provisionado para o Anthropic Claude V2.1 18K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude V2.1 18K.
Unidades de modelo por modelo provisionado para o Anthropic Claude V2.1 200K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Anthropic Claude V2.1 200K.
Unidades de modelo por modelo provisionado para o Cohere Command Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Command.
Unidades de modelo por modelo provisionado para o Cohere Command Light Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Command Light.
Unidades de modelo por modelo provisionado para o Cohere Command R Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Command R 128k.
Unidades de modelo por modelo provisionado para o Cohere Command R Plus Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Command R Plus 128k.
Unidades de modelo por modelo provisionado para o Cohere Embed English Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Embed English.
Unidades de modelo por modelo provisionado para o Cohere Embed Multilingual Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Cohere Embed Multilingual.
Unidades de modelo por modelo provisionado para o Meta Llama 2 13B Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 2 13B.
Unidades de modelo por modelo provisionado para o Meta Llama 2 70B Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 2 70B.
Unidades de modelo por modelo provisionado para o Meta Llama 2 Chat 13B Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 2 Chat 13B.
Unidades de modelo por modelo provisionado para o Meta Llama 2 Chat 70B Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 2 Chat 70B.
Unidades de modelo por modelo provisionado para o Meta Llama 3 70B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3 70B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3 8B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3 8B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.1 70B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.1 70B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.1 8B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.1 8B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.2 11B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.2 11B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.2 1B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.2 1B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.2 3B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.2 3B Instruct.
Unidades de modelo por modelo provisionado para o Meta Llama 3.2 90B Instruct Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Meta Llama 3.2 90B Instruct.
Unidades de modelo por modelo provisionado para o Mistral Large 2407 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Mistral Large 2407.
Unidades de modelo por modelo provisionado para o Mistral Small Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Mistral Small.
Unidades de modelo por modelo provisionado para o Stability.ai Stable Diffusion XL 0.8 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Stability.ai Stable Diffusion XL 0.8
Unidades de modelo por modelo provisionado para o Stability.ai Stable Diffusion XL 1.0 Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para o Stability.ai Stable Diffusion XL 1.0.
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 128k para o Amazon Nova Micro Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 128k para o Amazon Nova Micro
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Lite Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Lite
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Micro Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Micro
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Pro Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 24k para o Amazon Nova Pro
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 300k para o Amazon Nova Lite Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 300k para o Amazon Nova Lite
Unidades de modelo por modelo provisionado para a variante de comprimento de contexto de 300k para o Amazon Nova Pro Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser atribuídas a um modelo provisionado para a variante de comprimento de contexto de 300k para o Amazon Nova Pro.
Unidades de modelo com compromisso para Throughout provisionada criadas para o Meta Llama 4 Scout 17B Instruct 10M Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser alocadas a um Throughput provisionado criado para o Meta Llama 4 Scout 17B Instruct 10M, com compromisso.
Unidades de modelo com compromisso para Throughout provisionada criadas para o Meta Llama 4 Scout 17B Instruct 128 K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser alocadas a um Throughput provisionado criado para o Meta Llama 4 Scout 17B Instruct 128 K, com compromisso.
Unidades de modelo com compromisso para Throughout provisionada criadas para o Meta Maverick 4 Scout 17B Instruct 128 K Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser alocadas a um Throughput provisionado criado para o Meta Llama 4 Maverick 17B Instruct 128 K, com compromisso.
Unidades de modelo com compromisso para Throughout provisionada criadas para o Meta Maverick 4 Scout 17B Instruct 1M Cada região compatível: 0 Sim Número máximo de unidades de modelo que podem ser alocadas a um Throughput provisionado criado para o Meta Llama 4 Maverick 17B Instruct 1M, com compromisso.
Unidades modelo sem compromisso para taxa de transferência provisionada criadas para o modelo básico Amazon Nova 2 Lite V1.0 256K Cada região compatível: 0 Não O número máximo de unidades de modelo que podem ser alocadas para uma taxa de transferência provisionada criada para o modelo básico Amazon Nova 2 Lite V1.0 256K, sem compromisso
Unidades de modelo sem compromisso para taxa de transferência provisionada criadas para o modelo personalizado Amazon Nova 2 Lite V1.0 256K Cada região compatível: 0 Não O número máximo de unidades de modelo que podem ser alocadas a uma taxa de transferência provisionada criada para o modelo personalizado Amazon Nova 2 Lite V1.0 256K, sem compromisso.
Número de roteadores de prompts personalizados por conta Cada região com suporte: 500 Não Número máximo de roteadores de prompts personalizados que você pode criar por conta e por região.
Solicitações de inferência de modelo sob demanda e otimizadas para latência por minuto para o Amazon Nova Pro V1 Cada região com suporte: 10 Não O número máximo de solicitações sob demanda e otimizadas para latência que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro V1. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda e otimizadas para latência por minuto para o Meta Llama 3.1 405B Instruct Cada região compatível: 100 Não Número máximo de solicitações sob demanda e otimizadas para latência que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda e otimizadas para latência por minuto para o Meta Llama 3.1 70B Instruct Cada região compatível: 100 Não Número máximo de solicitações sob demanda e otimizadas para latência que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda e otimizados para latência por minuto para o Amazon Nova Pro V1 Cada região compatível: 40.000 Não O número máximo de tokens sob demanda e otimizados para latência que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda e otimizados para latência por minuto para o Meta Llama 3.1 405B Instruct Cada região compatível: 40.000 Não Número máximo de tokens sob demanda otimizados para latência que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda e otimizados para latência por minuto para o Meta Llama 3.1 70B Instruct Cada região compatível: 40.000 Não Número máximo de tokens sob demanda otimizados para latência que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações simultâneas InvokeModel assíncronas sob demanda para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 30 Não Número máximo de solicitações de inferência de modelo simultâneas assíncronas que você pode enviar para o Amazon Nova 2 Multimodal Embeddings V1. A cota considera a soma combinada de Converse, ConverseStream InvokeModel, e. InvokeModelWithResponseStream
Solicitações simultâneas InvokeModel assíncronas sob demanda para o Marengo Embed 3.0 TwelveLabs Cada região com suporte: 10 Sim O número máximo de solicitações de inferência de modelo simultâneo assíncrono que você pode enviar para TwelveLabs o Marengo Embed 3.0. A cota considera a soma combinada de Converse, ConverseStream InvokeModel, e. InvokeModelWithResponseStream
Solicitações InvokeModel simultâneas sob demanda para Amazon Nova 2 Sonic Cada região compatível: 20 Não O número máximo de solicitações de inferência de modelos simultâneos que você pode enviar para o Amazon Nova 2 Sonic. A cota considera a soma combinada de Converse, ConverseStream InvokeModel, e. InvokeModelWithResponseStream
Solicitações InvokeModel simultâneas sob demanda para o Amazon Nova Reel1.0 Cada região com suporte: 10 Não Número máximo de solicitações de inferência de modelo simultâneas que você pode enviar para o Amazon Nova Reel 1.0. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações InvokeModel simultâneas sob demanda para o Amazon Nova Reel1.1 Cada região compatível: 3 Não Número máximo de solicitações de inferência de modelo simultâneas que você pode enviar para o Amazon Nova Reel 1.1. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações InvokeModel simultâneas sob demanda para o Amazon Nova Sonic Cada região compatível: 20 Não Número máximo de solicitações simultâneas que você pode enviar para inferência de modelo para o Amazon Nova Sonic.
Solicitações InvokeModel simultâneas sob demanda para Twelve Labs Marengo Cada região compatível: 30 Não O número máximo de InvokeModel solicitações simultâneas que você pode enviar para inferência de modelo para o Twelve Labs Marengo.
Solicitações InvokeModel simultâneas sob demanda para Twelve Labs Pegasus Cada região compatível: 30 Sim O número máximo de InvokeModel solicitações simultâneas que você pode enviar para inferência de modelo para o Twelve Labs Pegasus.
Solicitações de inferência de modelo otimizadas para latência sob demanda por minuto para o Anthropic Claude 3.5 Haiku Cada região compatível: 100 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude 3.5 Haiku, se a otimização da latência estiver configurada.
Tokens de inferência de modelo otimizados para latência sob demanda por minuto para o Anthropic Claude 3.5 Haiku Cada região compatível: 500.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Anthropic Claude 3.5 Haiku ConverseStream, se a otimização da latência estiver configurada.
Solicitações simultâneas de inferência de modelo sob demanda para o Luma Ray V2 Cada região compatível: 1 Não Número máximo de solicitações simultâneas que você pode enviar para inferência de modelo para o Luma Ray V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba 1.5 Large Cada região compatível: 100 Não O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba 1.5 Large. A cota considera a soma combinada de solicitações para Converse e InvokeModel
Solicitações de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba 1.5 Mini Cada região compatível: 100 Não O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba 1.5 Mini. A cota considera a soma combinada de solicitações para Converse e InvokeModel
Solicitações de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba Instruct Cada região compatível: 100 Não O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba Instruct. A cota considera a soma combinada de solicitações para Converse e InvokeModel
Solicitações de inferência de modelo sob demanda por minuto para o AI21 Labs Jurassic-2 Mid Cada região compatível: 400 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o AI21 Labs Jurassic-2 Mid
Solicitações de inferência de modelo sob demanda por minuto para o AI21 Labs Jurassic-2 Ultra Cada região compatível: 100 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o AI21 Labs Jurassic-2 Ultra
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 2.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova 2 Multimodal Embeddings V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Nova Canvas Cada região compatível: 100 Não Número máximo de solicitações que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Canvas. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Nova Lite

us-east-1: 2.000

eu-west-2:2.000

Cada uma das outras regiões compatíveis: 200

Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Lite. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para a Amazon Nova Micro

us-east-1: 2.000

eu-west-2:2.000

Cada uma das outras regiões compatíveis: 200

Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Micro. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Nova Pro Cada região compatível: 250 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Rerank 1.0 Cada região compatível: 200 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Rerank 1.0.
Solicitações de inferência de modelo sob demanda por minuto para o Gerador de Imagens do Amazon Titan G1 Cada região compatível: 60 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Image Generator G1.
Solicitações de inferência de modelo sob demanda por minuto para o Gerador de Imagens do Amazon Titan G1 V2 Cada região compatível: 60 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Gerador de Imagens do Amazon Titan G1 V2. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Multimodal Embeddings G1 Cada região compatível: 2.000 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Multimodal Embeddings G1.
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Text Embeddings Cada região compatível: 2.000 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para Amazon Titan Text Embeddings
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Text Embeddings V2 Cada região compatível: 6.000 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Text Embeddings V2
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Text Express Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e para InvokeModelWithResponseStream Amazon Titan Text Express
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Text Lite Cada região compatível: 800 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e para InvokeModelWithResponseStream Amazon Titan Text Lite
Solicitações de inferência de modelo sob demanda por minuto para o Amazon Titan Text Premier Cada região compatível: 100 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e para InvokeModelWithResponseStream Amazon Titan Text Premier
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Haiku

us-east-1: 1.000

us-west-2: 1.000

ap-northeast-1:200

ap-southeast-1:200

Cada uma das outras regiões suportadas: 400

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude 3 Haiku.
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Opus Cada região compatível: 50 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3 Opus. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Sonnet

us-east-1: 500

us-west-2: 500

Cada uma das outras regiões compatíveis: 100

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude 3 Sonnet.
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Haiku

us-west-1:400

Cada uma das outras regiões compatíveis: 1.000

Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Haiku. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Sonnet

us-east-1:50

us-east-2:50

us-west-2:250

ap-northeast-2:50

ap-south-1:50

ap-southeast-2:50

Cada uma das outras regiões compatíveis: 20

Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Sonnet V2

us-west-2:250

Cada uma das outras regiões compatíveis: 50

Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.7 Sonnet V1 Cada região compatível: 125 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.7 Sonnet V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude Instant

us-east-1: 1.000

us-west-2: 1.000

Cada uma das outras regiões suportadas: 400

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude Instant
Solicitações de inferência de modelo sob demanda por minuto para o Anthropic Claude V2

us-east-1: 500

us-west-2: 500

Cada uma das outras regiões compatíveis: 100

Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Anthropic Claude V2
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Command Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Cohere Command.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Command Light Cada região compatível: 800 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Cohere Command Light.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Command R Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Cohere Command R 128k.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Command R Plus Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Cohere Command R Plus 128k.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Embed English Cada região compatível: 2.000 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Cohere Embed English.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Embed Multilingual Cada região compatível: 2.000 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Cohere Embed Multilingual.
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Embed V4 Cada região com suporte: 1.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Cohere Rerank 3.5 Cada região compatível: 250 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Cohere Rerank 3.5.
Solicitações de inferência de modelos sob demanda por minuto para DeepSeek V3 V1 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para a V3 DeepSeek V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para a V3.2 DeepSeek Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para DeepSeek a V3.2. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o GPT OSS Safeguard 120B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o GPT OSS Safeguard 120B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o GPT OSS Safeguard 20B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o GPT OSS Safeguard 20B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Gemma 3 12B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 12B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Gemma 3 27B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 27B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Gemma 3 4B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 4B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelos sob demanda por minuto para Kimi K2 Thinking Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Kimi K2 Thinking. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Magistral Small 1.2 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Magistral Small 1.2. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 2 13B Cada região compatível: 800 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Meta Llama 2 13B.
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 2 70B Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Meta Llama 2 70B.
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 2 Chat 13B Cada região compatível: 800 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Meta Llama 2 Chat 13B.
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 2 Chat 70B Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Meta Llama 2 Chat 70B.
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3 70B Instruct Cada região compatível: 400 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3 70B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3 8B Instruct Cada região compatível: 800 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3 8B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 405B Instruct Cada região compatível: 200 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 70B Instruct Cada região compatível: 400 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 8B Instruct Cada região compatível: 800 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 8B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 11B Instruct Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Meta Llama 3.2 11B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 1B Instruct Cada região compatível: 800 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 1B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 3B Instruct Cada região compatível: 800 Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 90B Instruct Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Meta Llama 3.2 90B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.3 70B Instruct Cada região compatível: 400 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.3 70B Instruct. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Minimax M2 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Minimax M2. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Minimax M2.1 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Minimax M2.1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Ministral 14B 3.0 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 14B 3.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Ministral 3B 3.0 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 3B 3.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Ministral 8B 3.0 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 8B 3.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Mistral 7B Instruct Cada região compatível: 800 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para Mistral mistral-7 0 b-instruct-v
Solicitações de inferência de modelo sob demanda por minuto para o Mistral AI Mistral Small Cada região compatível: 400 Não O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto para Mistral AI Mistral Small
Solicitações de inferência de modelo sob demanda por minuto para Mistral Devstral 2 123b Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Mistral Devstral 2 123b. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Mistral Large Cada região compatível: 400 Não O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto para Mistral mistral-large-2402-v1
Solicitações de inferência de modelo sob demanda por minuto para o Mistral Large 2407 Cada região compatível: 400 Não Número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Mistral Large 2407. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e ConverseStream
Solicitações de inferência de modelo sob demanda por minuto para Mistral Large 3 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Mistral Large 3. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Mistral Mixtral 8x7b Instruct Cada região compatível: 400 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para Mistral mixtral-8x7b-v0
Solicitações de inferência de modelo sob demanda por minuto para Moonshot AI Kimi K2.5 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Moonshot AI Kimi K2.5. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para NVIDIA Nemotron Nano 2 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o NVIDIA Nemotron Nano 2. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para NVIDIA Nemotron Nano 2 VL Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o NVIDIA Nemotron Nano 2 VL. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Nemotron Nano 3 30B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Nemotron Nano 3 30B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o OpenAI GPT OSS 120B Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o OpenAI GPT OSS 120B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o OpenAI GPT OSS 20B Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o OpenAI GPT OSS 20B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Qwen3 235B a22b 2507 V1 Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 235B a22b 2507 V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Qwen3 32B V1 Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 32B V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Qwen3 Coder 30B a3b V1 Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder 30B a3b V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Qwen3 Coder 480B a35b V1 Cada região compatível: 10.000 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder 480B a35b V1. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Qwen3 Coder Next Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder Next. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Qwen3 Next 80B A3B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Next 80B A3B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Qwen3 VL 235B A22B Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 VL 235B A22B. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Diffusion 3 Large Cada região compatível: 15 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Stability.ai Stable Diffusion 3 Large.
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Diffusion 3 Medium Cada região compatível: 60 Não O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion 3 Medium
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Diffusion 3.5 Large Cada região compatível: 15 Não O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Stability.ai Stable Diffusion 3.5 Large.
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Diffusion XL 0,8 Cada região compatível: 60 Não O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion XL 0.8
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Diffusion XL 1.0 Cada região compatível: 60 Não O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion XL 1.0
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Image Core Cada região compatível: 90 Não O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Image Core.
Solicitações de inferência de modelo sob demanda por minuto para o Stability.ai Stable Image Ultra Cada região com suporte: 10 Não O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Image Ultra.
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Conservative Upscale Cada região compatível: 2 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Conservative Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Control Sketch Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Control Sketch. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Control Structure Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Control Structure. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Creative Upscale Cada região compatível: 2 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Creative Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Erase Object Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Erase Object. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Fast Upscale Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Creative Upscale. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Inpaint Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Inpaint. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Outpaint Cada região compatível: 2 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Outpaint. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Remove Background Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Remove Background. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Search e Recolor Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Search e o Recolor. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Search and Replace Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Search and Replace. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Style Guide Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Style Guide. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Stable Image Style Transfer Cada região com suporte: 10 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Stable Image Style Transfer. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Twelve Labs Marengo Cada região compatível: 100 Não Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Twelve Labs Marengo. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Twelve Labs Pegasus Cada região compatível: 60 Sim Número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Twelve Labs Pegasus. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o TwelveLabs Marengo Embed 3.0 Cada região com suporte: 500 Sim O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o TwelveLabs Marengo Embed 3.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Voxtral Mini 1.0 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Voxtral Mini 1.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para o Voxtral Small 1.0 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Voxtral Small 1.0. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Z.ai GLM-4.7 Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Z.ai GLM-4.7. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Solicitações de inferência de modelo sob demanda por minuto para Z.ai GLM-4.7 Flash Cada região compatível: 10.000 Não O número máximo de solicitações sob demanda que você pode enviar para inferência de modelo em um minuto para o Z.ai GLM-4.7 Flash. Essa cota representa o número total de solicitações para as ações Converse ConverseStream, InvokeModel e. InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba 1.5 Large Cada região compatível: 300.000 Não O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba 1.5 Large. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse e. InvokeModel
Tokens de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba 1.5 Mini Cada região compatível: 300.000 Não O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba 1.5 Mini. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse e. InvokeModel
Tokens de inferência de modelo sob demanda por minuto para o AI21 Labs Jamba Instruct Cada região compatível: 300.000 Não O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba Instruct. A cota considera a soma combinada de tokens para Converse e InvokeModel
Tokens de inferência de modelo sob demanda por minuto para AI21 Labs Jurassic-2 Mid Cada região compatível: 300.000 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para AI21 Labs Jurassic-2 Mid.
Tokens de inferência de modelo sob demanda por minuto para o AI21 Labs Jurassic-2 Ultra Cada região compatível: 300.000 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para AI21 Labs Jurassic-2 Ultra.
Tokens de inferência de modelo sob demanda por minuto para o Amazon Nova Lite

us-east-1: 4,000,000

eu-west-2: 4.000.000

Cada uma das outras regiões suportadas: 200.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Lite. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Amazon Nova Micro

us-east-1: 4,000,000

eu-west-2: 4.000.000

Cada uma das outras regiões suportadas: 200.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Micro. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Amazon Nova Pro Cada região com suporte: 1.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Amazon Nova Pro. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Gerador de Imagens do Amazon Titan G1 Cada região compatível: 2.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Image Generator G1.
Tokens de inferência de modelo sob demanda por minuto para o Gerador de Imagens do Amazon Titan G1 V2 Cada região compatível: 2.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Gerador de Imagens do Amazon Titan G1 V2. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Multimodal Embeddings G1 Cada região compatível: 300.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Multimodal Embeddings G1.
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Text Embeddings Cada região compatível: 300.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para Amazon Titan Text Embeddings.
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Text Embeddings V2 Cada região compatível: 300.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Text Embeddings V2.
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Text Express Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e para o InvokeModelWithResponseStream Amazon Titan Text Express. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Text Lite Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e para o InvokeModelWithResponseStream Amazon Titan Text Lite. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Amazon Titan Text Premier Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e para o InvokeModelWithResponseStream Amazon Titan Text Premier. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Haiku

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1:200.000

ap-southeast-1 ap-southeast-1:200.000

Cada uma das outras regiões suportadas: 300.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse InvokeModel e à Anthropic Claude InvokeModelWithResponseStream 3 Haiku. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Opus Cada região compatível: 400.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3 Opus. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3 Sonnet

us-east-1: 1,000,000

us-west-2: 1,000,000

Cada uma das outras regiões suportadas: 200.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Anthropic Claude 3 Sonnet. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Haiku

us-west-1:300.000

Cada uma das outras regiões suportadas: 2.000.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Haiku. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Sonnet

us-east-1:400.000

us-east-2:400.000

us-west-2: 2,000,000

ap-northeast-2:400.000

ap-south-1:400.000

ap-southeast-2:400.000

Cada uma das outras regiões suportadas: 200.000

Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.5 Sonnet V2

us-west-2: 2,000,000

Cada uma das outras regiões suportadas: 400.000

Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude 3.7 Sonnet V1 Cada região compatível: 500.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.7 Sonnet V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude Instant

us-east-1: 1,000,000

us-west-2: 1,000,000

Cada uma das outras regiões suportadas: 300.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações à Converse InvokeModel e à Anthropic ConverseStream Claude InvokeModelWithResponseStream Instant.
Tokens de inferência de modelo sob demanda por minuto para o Anthropic Claude V2

us-east-1: 500.000

us-west-2: 500.000

Cada uma das outras regiões suportadas: 200.000

Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Anthropic ConverseStream Claude V2.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Command Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse InvokeModel e InvokeModelWithResponseStream para ConverseStream Cohere Command.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Command Light Cada região compatível: 300.000 Não Número máximo de vezes que você pode chamar a inferência do modelo em um minuto. A cota considera a soma combinada de Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Cohere Command Light.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Command R Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o ConverseStream Cohere Command R 128k.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Command R Plus Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o ConverseStream Cohere Command R Plus 128k.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Embed English Cada região compatível: 300.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Cohere Embed English.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Embed Multilingual Cada região compatível: 300.000 Não O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Cohere Embed Multilingual.
Tokens de inferência de modelo sob demanda por minuto para o Cohere Embed V4 Cada região compatível: 150.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Cohere Embed V4. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para DeepSeek V3 V1 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para DeepSeek V3 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para a V3.2 DeepSeek Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para DeepSeek a V3.2. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o GPT OSS Safeguard 120B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o GPT OSS Safeguard 120B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o GPT OSS Safeguard 20B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o GPT OSS Safeguard 20B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Gemma 3 12B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 12B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Gemma 3 27B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 27B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Gemma 3 4B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Gemma 3 4B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Kimi K2 Thinking Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Kimi K2 Thinking. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Magistral Small 1.2 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Magistral Small 1.2. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 2 13B Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada de tokens de entrada e saída em todas as solicitações para Converse, ConverseStream, InvokeModel e InvokeModelWithResponseStream para Meta Llama 2 13B.
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 2 70B Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Meta Llama 2 70B. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 2 Chat 13B Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Meta Llama 2 Chat 13B. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 2 Chat 70B Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e InvokeModelWithResponseStream para o Meta Llama 2 Chat 70B. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3 70B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3 8B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3 8B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 405B Instruct Cada região compatível: 400.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 70B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 8B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 8B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 11B Instruct Cada região compatível: 300.000 Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 11B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 1B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 1B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 3B Instruct Cada região compatível: 300.000 Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 90B Instruct Cada região compatível: 300.000 Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 90B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Meta Llama 3.3 70B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.3 70B Instruct. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Minimax M2 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Minimax M2. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Minimax M2.1 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Minimax M2.1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Ministral 14B 3.0 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 14B 3.0. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Ministral 3B 3.0 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 3B 3.0. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Ministral 8B 3.0 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Ministral 8B 3.0. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Mistral AI Mistral 7B Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse InvokeModel e para o Mistral AI Mistral InvokeModelWithResponseStream 7B Instruct. ConverseStream
Tokens de inferência de modelo sob demanda por minuto para o Mistral AI Mistral Large Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada de tokens de entrada e saída em todas as solicitações para Converse InvokeModel e InvokeModelWithResponseStream para Mistral ConverseStream AI Mistral Large.
Tokens de inferência de modelo sob demanda por minuto para o Mistral AI Mistral Small Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada de tokens de entrada e saída em todas as solicitações para Converse InvokeModel e InvokeModelWithResponseStream para Mistral ConverseStream AI Mistral Small.
Tokens de inferência de modelo sob demanda por minuto para o Mistral AI Mixtral 8X7BB Instruct Cada região compatível: 300.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para a Converse e para o Mistral AI ConverseStream Mixtral InvokeModel InvokeModelWithResponseStream 8X7B Instruct.
Tokens de inferência de modelo sob demanda por minuto para Mistral Devstral 2 123b Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Mistral Devstral 2 123b. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Mistral Large 2407 Cada região compatível: 300.000 Não Número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Mistral Large 2407. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e ConverseStream
Tokens de inferência de modelo sob demanda por minuto para Mistral Large 3 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Mistral Large 3. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Moonshot AI Kimi K2.5 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Moonshot AI Kimi K2.5. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para NVIDIA Nemotron Nano 2 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o NVIDIA Nemotron Nano 2. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para NVIDIA Nemotron Nano 2 VL Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o NVIDIA Nemotron Nano 2 VL. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Nemotron Nano 3 30B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Nemotron Nano 3 30B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o OpenAI GPT OSS 120B Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o OpenAI GPT OSS 120B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o OpenAI GPT OSS 20B Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o OpenAI GPT OSS 20B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Qwen3 235B a22b 2507 V1 Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 235B a22b 2507 V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Qwen3 32B V1 Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 32B V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Qwen3 Coder 30B a3b V1 Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder 30B a3b V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Qwen3 Coder 480B a35b V1 Cada região compatível: 100.000.000 Não Número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder 480B a35b V1. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Qwen3 Coder Next Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Coder Next. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Qwen3 Next 80B A3B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 Next 80B A3B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Qwen3 VL 235B A22B Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Qwen3 VL 235B A22B. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Voxtral Mini 1.0 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Voxtral Mini 1.0. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para o Voxtral Small 1.0 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Voxtral Small 1.0. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Z.ai GLM-4.7 Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Z.ai GLM-4.7. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Tokens de inferência de modelo sob demanda por minuto para Z.ai GLM-4.7 Flash Cada região compatível: 100.000.000 Não O número máximo de tokens sob demanda que você pode enviar para inferência de modelo em um minuto para o Z.ai GLM-4.7 Flash. A cota considera a soma combinada dos tokens de entrada e saída em todas as solicitações para Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream
Parâmetros por função Cada região compatível: 5 Sim Número máximo de parâmetros que você pode ter em uma função de grupo de ações.
PrepareAgent solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de PrepareAgent API por segundo.
Registros por trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1.
Registros por trabalho de inferência em lote para o Amazon Nova Premier Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Amazon Nova Premier.
Registros por trabalho de inferência em lote para o Claude 3 Haiku Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Haiku.
Registros por trabalho de inferência em lote para o Claude 3 Opus Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Opus.
Registros por trabalho de inferência em lote para o Claude 3 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3 Sonnet.
Registros por trabalho de inferência em lote para o Claude 3.5 Haiku Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Haiku.
Registros por trabalho de inferência em lote para o Claude 3.5 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet.
Registros por trabalho de inferência em lote para o Claude 3.5 Sonnet v2 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet v2.
Registros por trabalho de inferência em lote para o Claude 3.7 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude 3.7 Sonnet.
Registros por trabalho de inferência em lote para Claude Haiku 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Haiku 4.5.
Registros por trabalho de inferência em lote para Claude Opus 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Opus 4.5.
Registros por trabalho de inferência em lote para Claude Opus 4.6 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Claude Opus 4.6.
Registros por trabalho de inferência em lote para o Claude Sonnet 4 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.
Registros por tarefa de inferência em lote para Claude Sonnet 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.5.
Trabalho de inferência de registros por lote para Claude Sonnet 4.6 Cada região compatível: 100.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.6.
Registros por tarefa de inferência em lote para DeepSeek a V3.2 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para a DeepSeek V3.2.
Registros por tarefa de inferência em lote para v3 DeepSeek Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para a DeepSeek v3.
Registros por tarefa de inferência em lote para Devstral 2 123B Cada região compatível: 100.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Devstral 2 123B.
Registros por tarefa de inferência em lote para o GLM 4.7 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o GLM 4.7.
Registros por tarefa de inferência em lote para o GLM 4.7 Flash Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o GLM 4.7 Flash.
Registros por tarefa de inferência em lote para Gemma 3 12B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 12B.
Registros por trabalho de inferência em lote para Gemma 3 27B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 27B.
Registros por trabalho de inferência em lote para Gemma 3 4B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Gemma 3 4B.
Trabalho de inferência de registros por lote para Kimi K2 Thinking Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Kimi K2 Thinking.
Registros por trabalho de inferência em lote para Kimi K2.5 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Kimi K2.5.
Registros por trabalho de inferência em lote para o Llama 3.1 405B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 405B Instruct.
Registros por trabalho de inferência em lote para Llama 3.1 70B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 70B Instruct.
Registros por trabalho de inferência em lote para o Llama 3.1 8B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.1 8B Instruct.
Registros por trabalho de inferência em lote para a Llama 3.2 11B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 11B Instruct.
Registros por trabalho de inferência em lote para o Llama 3.2 1B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote Llama 3.2 1B Instruct.
Registros por trabalho de inferência em lote para a Llama 3.2 3B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 3B Instruct.
Registros por trabalho de inferência em lote para o Llama 3.2 90B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.2 90B Instruct.
Registros por trabalho de inferência em lote para Llama 3.3 70B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 3.3 70B Instruct.
Registros por trabalho de inferência em lote para o Llama 4 Maverick Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 4 Maverick.
Registros por trabalho de inferência em lote para o Llama 4 Scout Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Llama 4 Scout.
Registros por tarefa de inferência de lote para Magistral Small 2509 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Magistral Small 2509.
Registros por tarefa de inferência em lote para MiniMax M2 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para MiniMax M2.
Registros por tarefa de inferência em lote para MiniMax M2.1 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para MiniMax M2.1.
Registros por tarefa de inferência em lote para Ministral 3 14B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Ministral 3 14B.
Registros por tarefa de inferência em lote para Ministral 3 8B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Ministral 3 8B.
Registros por tarefa de inferência em lote para o Ministral 3B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Ministral 3B.
Registros por trabalho de inferência em lote para o Mistral Large 2 (24.07) Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Mistral Large 2 (24.07).
Registros por trabalho de inferência em lote para Mistral Large 3 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para Mistral Large 3.
Registros por trabalho de inferência em lote para o Mistral Small Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Mistral Small.
Registros por tarefa de inferência em lote para NVIDIA Nemotron Nano 12B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o NVIDIA Nemotron Nano 12B.
Registros por trabalho de inferência em lote para NVIDIA Nemotron Nano 3 30B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para NVIDIA Nemotron Nano 3 30B.
Registros por trabalho de inferência em lote para NVIDIA Nemotron Nano 9B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o NVIDIA Nemotron Nano 9B.
Registros por trabalho de inferência em lote para Nova 2 Lite Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova 2 Lite.
Registros por trabalho de inferência em lote para o Nova Lite V1 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Lite V1.
Registros por trabalho de inferência em lote para a Nova Micro V1 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Micro V1.
Registros por trabalho de inferência em lote para o Nova Pro V1 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Nova Pro V1.
Registros por trabalho de inferência em lote para o OpenAI GPT OSS 120b Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 120b.
Registros por trabalho de inferência em lote para o OpenAI GPT OSS 20b Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 20b.
Registros por trabalho de inferência em lote para OpenAI GPT OSS Safeguard 120b Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 120b.
Registros por trabalho de inferência em lote para OpenAI GPT OSS Safeguard 20b Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 20b.
Registros por trabalho de inferência em lote para o Qwen3 235B Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 235B.
Registros por trabalho de inferência em lote para o Qwen3 32B Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 32B.
Registros por trabalho de inferência em lote para o Qwen3 Coder 30B Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder 30B.
Registros por trabalho de inferência em lote para o Qwen3 Coder 480B Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder 480B.
Registros por trabalho de inferência em lote para o Qwen3 Coder Next Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Coder Next.
Registros por trabalho de inferência em lote para o Qwen3 Next 80B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 Next 80B.
Registros por trabalho de inferência em lote para Qwen3 VL 235B Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Qwen3 VL 235B.
Registros por trabalho de inferência em lote para o Titan Multimodal Embeddings G1 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Titan Multimodal Embeddings G1.
Registros por trabalho de inferência em lote para o Titan Text Embeddings V2 Cada região compatível: 50.000 Sim Número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Titan Text Embeddings V2.
Registros por trabalho de inferência em lote para o Voxtral Mini 3B 2507 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Voxtral Mini 3B 2507.
Registros por tarefa de inferência em lote para o Voxtral Small 24B 2507 Cada região compatível: 50.000 Sim O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote para o Voxtral Small 24B 2507.
Registros por arquivo de entrada por trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Amazon Nova 2 Multimodal Embeddings V1.
Registros por arquivo de entrada por trabalho de inferência em lote para o Amazon Nova Premier Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Amazon Nova Premier.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3 Haiku Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3 Haiku.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3 Opus Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3 Opus.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3 Sonnet.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3.5 Haiku Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3.5 Haiku.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3.5 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3.5 Sonnet v2 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3.5 Sonnet v2.
Registros por arquivo de entrada por trabalho de inferência em lote para o Claude 3.7 Sonnet Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude 3.7 Sonnet.
Registros por arquivo de entrada por trabalho de inferência em lote para Claude Haiku 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Claude Haiku 4.5.
Registros por arquivo de entrada por trabalho de inferência em lote para Claude Opus 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Claude Opus 4.5.
Registros por arquivo de entrada por trabalho de inferência em lote para Claude Opus 4.6 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Claude Opus 4.6.
Registros por arquivo de entrada por trabalho de inferência em lote para Claude Sonnet 4 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.
Registros por arquivo de entrada por trabalho de inferência em lote para Claude Sonnet 4.5 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.5.
Registros por arquivo de entrada por tarefa de inferência em lote para Claude Sonnet 4.6 Cada região compatível: 100.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Claude Sonnet 4.6.
Registros por arquivo de entrada por trabalho de inferência em lote para DeepSeek a V3.2 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para a DeepSeek V3.2.
Registros por arquivo de entrada por trabalho de inferência em lote para v3 DeepSeek Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para a DeepSeek v3.
Registros por arquivo de entrada por trabalho de inferência em lote para Devstral 2 123B Cada região compatível: 100.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Devstral 2 123B.
Registros por arquivo de entrada por trabalho de inferência em lote para o GLM 4.7 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o GLM 4.7.
Registros por arquivo de entrada por tarefa de inferência em lote para o GLM 4.7 Flash Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o GLM 4.7 Flash.
Registros por arquivo de entrada por trabalho de inferência em lote para Gemma 3 12B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Gemma 3 12B.
Registros por arquivo de entrada por trabalho de inferência em lote para Gemma 3 27B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Gemma 3 27B.
Registros por arquivo de entrada por trabalho de inferência em lote para Gemma 3 4B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Gemma 3 4B.
Registros por arquivo de entrada por trabalho de inferência em lote para Kimi K2 Thinking Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Kimi K2 Thinking.
Registros por arquivo de entrada por trabalho de inferência em lote para Kimi K2.5 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Kimi K2.5.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.1 405B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.1 405B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.1 70B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.1 70B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.1 8B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.1 8B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.2 11B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.2 11B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.2 1B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.2 1B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.2 3B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.2 3B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.2 90B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.2 90B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 3.3 70B Instruct Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 3.3 70B Instruct.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 4 Maverick Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 4 Maverick.
Registros por arquivo de entrada por trabalho de inferência em lote para o Llama 4 Scout Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Llama 4 Scout.
Registros por arquivo de entrada por tarefa de inferência em lote para Magistral Small 2509 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Magistral Small 2509.
Registros por arquivo de entrada por trabalho de inferência em lote para MiniMax M2 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para MiniMax M2.
Registros por arquivo de entrada por trabalho de inferência em lote para MiniMax M2.1 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para MiniMax M2.1.
Registros por arquivo de entrada por tarefa de inferência em lote para Ministral 3 14B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Ministral 3 14B.
Registros por arquivo de entrada por tarefa de inferência em lote para Ministral 3 8B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Ministral 3 8B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Ministral 3B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Ministral 3B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Mistral Large 2 (24.07) Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Mistral Large 2 (24.07).
Registros por arquivo de entrada por trabalho de inferência em lote para Mistral Large 3 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para Mistral Large 3.
Registros por arquivo de entrada por trabalho de inferência em lote para o Mistral Small Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Mistral Small.
Registros por arquivo de entrada por tarefa de inferência em lote para NVIDIA Nemotron Nano 12B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para NVIDIA Nemotron Nano 12B.
Registros por arquivo de entrada por tarefa de inferência em lote para NVIDIA Nemotron Nano 3 30B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para NVIDIA Nemotron Nano 3 30B.
Registros por arquivo de entrada por tarefa de inferência em lote para NVIDIA Nemotron Nano 9B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o NVIDIA Nemotron Nano 9B.
Registros por arquivo de entrada por trabalho de inferência em lote para Nova 2 Lite Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Nova 2 Lite.
Registros por arquivo de entrada por trabalho de inferência em lote para o Nova Lite V1 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Nova Lite V1.
Registros por arquivo de entrada por trabalho de inferência em lote para o Nova Micro V1 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Nova Micro V1.
Registros por arquivo de entrada por trabalho de inferência em lote para o Nova Pro V1 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Nova Pro V1.
Registros por arquivo de entrada por trabalho de inferência em lote para o OpenAI GPT OSS 120b Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 120b.
Registros por arquivo de entrada por trabalho de inferência em lote para o OpenAI GPT OSS 20b Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS 20b.
Registros por arquivo de entrada por trabalho de inferência em lote para OpenAI GPT OSS Safeguard 120b Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 120b.
Registros por arquivo de entrada por trabalho de inferência em lote para OpenAI GPT OSS Safeguard 20b Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o OpenAI GPT OSS Safeguard 20b.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 235B Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 235B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 32B Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 32B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 Coder 30B Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 Coder 30B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 Coder 480B Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 Coder 480B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 Coder Next Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 Coder Next.
Registros por arquivo de entrada por trabalho de inferência em lote para o Qwen3 Next 80B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 Next 80B.
Registros por arquivo de entrada por trabalho de inferência em lote para Qwen3 VL 235B Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Qwen3 VL 235B.
Registros por arquivo de entrada por trabalho de inferência em lote para o Titan Multimodal Embeddings G1 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Titan Multimodal Embeddings G1.
Registros por arquivo de entrada por trabalho de inferência em lote para o Titan Text Embeddings V2 Cada região compatível: 50.000 Sim Número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Titan Text Embeddings V2.
Registros por arquivo de entrada por tarefa de inferência em lote para o Voxtral Mini 3B 2507 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Voxtral Mini 3B 2507.
Registros por arquivo de entrada por tarefa de inferência em lote para o Voxtral Small 24B 2507 Cada região compatível: 50.000 Sim O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote para o Voxtral Small 24B 2507.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Amazon Nova 2 Multimodal Embeddings V1 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Amazon Nova 2 Multimodal Embeddings V1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Amazon Nova Premier Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Amazon Nova Premier.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Haiku Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Haiku.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Opus Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Opus.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Sonnet Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3 Sonnet.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Haiku Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Haiku.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Sonnet Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Sonnet.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Sonnet v2 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.5 Sonnet v2.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.7 Sonnet Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude 3.7 Sonnet.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Haiku 4.5 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Haiku 4.5.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Opus 4.5 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Opus 4.5.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Opus 4.6 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Claude Opus 4.6.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude Sonnet 4 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Claude Sonnet 4.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Claude Sonnet 4.5. Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Claude Sonnet 4.5.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Claude Sonnet 4.6 Cada região compatível: 100 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Claude Sonnet 4.6.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para a V3.2 DeepSeek Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote enviados e em andamento usando um modelo básico para DeepSeek a V3.2.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para a v3 DeepSeek Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote enviados e em andamento usando um modelo básico para DeepSeek a v3.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Devstral 2 123B Cada região compatível: 100 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Devstral 2 123B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o GLM 4.7 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o GLM 4.7.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o GLM 4.7 Flash Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o GLM 4.7 Flash.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 12B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 12B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 27B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 27B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 4B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para Gemma 3 4B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Kimi K2 Thinking Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Kimi K2 Thinking.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Kimi K2.5 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Kimi K2.5.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 405B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 405B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 70B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 70B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 8B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.1 8B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 11B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 11B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 1B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 1B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 3B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 3B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 90B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.2 90B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.3 70B Instruct Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 3.3 70B Instruct.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 4 Maverick Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 4 Maverick.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 4 Scout Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Llama 4 Scout.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Magistral Small 2509 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Magistral Small 2509.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para M2 MiniMax Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote enviados e em andamento usando um modelo básico para MiniMax M2.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para M2.1 MiniMax Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote enviados e em andamento usando um modelo básico para MiniMax M2.1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3 14B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3 14B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3 8B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3 8B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Ministral 3B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Mistral Large 2 (24.07) Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Mistral Large 2 (24.07).
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Mistral Large 3 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Mistral Large 3.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Mistral Small Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Mistral Small.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o NVIDIA Nemotron Nano 12B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o NVIDIA Nemotron Nano 12B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para NVIDIA Nemotron Nano 3 30B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o NVIDIA Nemotron Nano 3 30B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o NVIDIA Nemotron Nano 9B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o NVIDIA Nemotron Nano 9B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Nova 2 Lite Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote enviados e em andamento usando um modelo básico para o Nova 2 Lite.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Lite V1 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Lite V1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Micro V1 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Micro V1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Pro V1 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Nova Pro V1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o OpenAI GPT OSS 120b Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o OpenAI GPT OSS 120b.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o OpenAI GPT OSS 20b Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o OpenAI GPT OSS 20b.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o OpenAI GPT OSS Safeguard 120b Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o OpenAI GPT OSS Safeguard 120b.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o OpenAI GPT OSS Safeguard 20b Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o OpenAI GPT OSS Safeguard 20b.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 235B Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 235B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 32B Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 32B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 Coder 30B Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 Coder 30B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 Coder 480B Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Qwen3 Coder 480B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 Coder Next Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 Coder Next.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 Next 80B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 Next 80B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 VL 235B Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Qwen3 VL 235B.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Titan Multimodal Embeddings G1 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Titan Multimodal Embeddings G1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Titan Text Embeddings V2 Cada região compatível: 20 Sim Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo base para o Titan Text Embeddings V2.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Voxtral Mini 3B 2507 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Voxtral Mini 3B 2507.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Voxtral Small 24B 2507 Cada região compatível: 20 Sim O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico para o Voxtral Small 24B 2507.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado para o Titan Multimodal Embeddings G1 Cada região compatível: 3 Não Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado para o Titan Multimodal Embeddings G1.
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado para o Titan Text Embeddings V2 Cada região compatível: 3 Não Número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado para o Titan Text Embeddings V2
Limite de taxa de aceleração para o Bedrock Data Automation Runtime: ListTagsForResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation Runtime: ListTagsForResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para o Bedrock Data Automation Runtime: TagResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation Runtime: TagResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para o Bedrock Data Automation Runtime: UntagResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation Runtime: UntagResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para Bedrock Data Automation: ListTagsForResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation: ListTagsForResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para Bedrock Data Automation: TagResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation: TagResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para Bedrock Data Automation: UntagResource Cada região compatível: 25 por segundo Não O número máximo de Bedrock Data Automation: UntagResource solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para CreateBlueprint Cada região compatível: 5 por segundo Não O número máximo de CreateBlueprint solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para CreateBlueprintVersion Cada região compatível: 5 por segundo Não O número máximo de CreateBlueprintVersion solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para CreateDataAutomationProject Cada região compatível: 5 por segundo Não O número máximo de CreateDataAutomationProject solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para DeleteBlueprint Cada região compatível: 5 por segundo Não O número máximo de DeleteBlueprint solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para DeleteDataAutomationProject Cada região compatível: 5 por segundo Não O número máximo de DeleteDataAutomationProject solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para GetBlueprint Cada região compatível: 5 por segundo Não O número máximo de GetBlueprint solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para GetDataAutomationProject Cada região compatível: 5 por segundo Não O número máximo de GetDataAutomationProject solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para GetDataAutomationStatus Cada região compatível: 10 por segundo Não O número máximo de GetDataAutomationStatus solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para InvokeDataAutomationAsync Cada região compatível: 10 por segundo Não O número máximo de InvokeDataAutomationAsync solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para ListBlueprints Cada região compatível: 5 por segundo Não O número máximo de ListBlueprints solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para ListDataAutomationProjects Cada região compatível: 5 por segundo Não O número máximo de ListDataAutomationProjects solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para UpdateBlueprint Cada região compatível: 5 por segundo Não O número máximo de UpdateBlueprint solicitações que você pode fazer por segundo por conta, na região atual
Limite de taxa de aceleração para UpdateDataAutomationProject Cada região compatível: 5 por segundo Não O número máximo de UpdateDataAutomationProject solicitações que você pode fazer por segundo por conta, na região atual
UpdateAgent solicitações por segundo Cada região compatível: 4 Não O número máximo de solicitações de UpdateAgent API por segundo.
UpdateAgentActionGroup solicitações por segundo Cada região compatível: 6 Não O número máximo de solicitações de UpdateAgentActionGroup API por segundo.
UpdateAgentAlias solicitações por segundo Cada região compatível: 2 Não O número máximo de solicitações de UpdateAgentAlias API por segundo.
UpdateAgentKnowledgeBase solicitações por segundo Cada região compatível: 4 Não O número máximo de solicitações de UpdateAgentKnowledgeBase API por segundo.
nota

É possível solicitar um aumento de cotas para sua conta seguindo as etapas abaixo:

  • Se uma cota estiver marcada como Sim, você poderá ajustá-la seguindo as etapas em Solicitar um aumento de cota, no Guia do usuário do Service Quotas.

  • Se uma cota estiver marcada como Não, você poderá enviar uma solicitação por meio do formulário de aumento de limite para um consideração de aumento.

  • Para qualquer modelo, você pode solicitar um aumento para as seguintes cotas juntas:

    • InvokeModel Tokens entre regiões por minuto para ${model}

    • InvokeModel Solicitações entre regiões por minuto para ${model}

    • InvokeModel Tokens sob demanda por minuto para ${model}

    • InvokeModel Solicitações sob demanda por minuto para ${model}

    Para solicitar um aumento para qualquer combinação dessas cotas, solicite um aumento para os InvokeModel tokens entre regiões por minuto para a ${model} cota seguindo as etapas em Solicitando um aumento de cota no Guia do usuário de cotas de serviço. Depois de fazer isso, a equipe de suporte entrará em contato e oferecerá a opção de aumentar também as outras três cotas. Devido à extraordinária demanda, a prioridade será dada aos clientes que geram tráfego que consome sua alocação de cota existente. Sua solicitação poderá ser negada se você não atender a essa condição.