

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Crie um trabalho de inferência em lote
<a name="batch-inference-create"></a>

Depois de configurar um bucket do Amazon S3 com arquivos para executar a inferência do modelo, é possível criar um trabalho de inferência em lote. Antes de começar, verifique se você configurou os arquivos de acordo com as instruções descritas em [Formatar e carregar os dados de inferência](batch-inference-data.md).

**nota**  
Para enviar um trabalho de inferência em lote usando uma VPC, use a API. Selecione a guia API para saber como incluir a configuração da VPC.

Para saber como criar um trabalho de inferência em lote, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

**Como criar um trabalho de inferência em lote**

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. No painel de navegação à esquerda, selecione **Inferência em lote**.

1. Na seção **Trabalhos de inferência em lote**, escolha **Criar trabalho.**

1. Na seção **Detalhes do trabalho**, forneça um **Nome de trabalho** ao trabalho de inferência em lote e selecione um modelo a ser usado para o trabalho de inferência em lote escolhendo **Selecionar** modelo.

1. Na seção **Tipo de invocação do modelo**, escolha o formato da API para seus dados de entrada. Escolha **InvokeModel**se seus dados de entrada usam formatos de solicitação específicos do modelo ou escolha **Converse se** seus dados de entrada usam o formato da API Converse. O padrão é **InvokeModel**.

1. Na seção **Dados de entrada**, escolha **Procurar no S3** e selecione o local do S3 que contém os arquivos para o trabalho de inferência em lote. A inferência em lote processa todos os arquivos JSONL e os arquivos de conteúdo que os acompanham nesse local do S3, seja o local uma pasta do S3 ou um único arquivo JSONL.
**nota**  
Se os dados de entrada estiverem em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, use a API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a guia API acima.

1. Na seção **Dados de saída**, escolha **Procurar no S3** e selecione um local no S3 para armazenar os arquivos de saída do seu trabalho de inferência em lote. Por padrão, os dados de saída serão criptografados por um Chave gerenciada pela AWS. Para escolher uma chave do KMS personalizada, selecione **Personalizar configurações de criptografia (avançado)** e escolha uma chave. Para obter mais informações sobre a criptografia dos recursos do Amazon Bedrock e a configuração de uma chave do KMS personalizada, consulte [Criptografia de dados](data-encryption.md).
**nota**  
Se planejar gravar dados de saída em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, use a API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a guia API acima.

1. Na seção **Acesso ao serviço** selecione uma das seguintes opções:
   + **Usar um perfil de serviço existente**: selecione um perfil de serviço na lista suspensa. Para obter mais informações sobre como configurar um perfil personalizado com as permissões apropriadas, consulte [Permissões obrigatórias para a inferência em lote](batch-inference-permissions.md).
   + **Criar e usar um novo perfil de serviço**: insira um nome para o perfil de serviço.

1. (Opcional) Para associar tags ao trabalho de inferência em lote, expanda a seção **Tags** e adicione uma chave e um valor opcional para cada tag. Para obter mais informações, consulte [Marcação de recursos do Amazon Bedrock](tagging.md).

1. Escolha **Criar trabalho de inferência em lote**.

------
#### [ API ]

Para criar um trabalho de inferência em lote, envie uma [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)solicitação com um endpoint do [plano de controle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Os seguintes campos são obrigatórios:


****  

| Campo | Caso de uso | 
| --- | --- | 
| jobName | Para especificar um nome para o trabalho. | 
| roleArn | Para especificar o nome do recurso da Amazon (ARN) do perfil de serviço com permissões para criar e gerenciar o trabalho. Para obter mais informações, consulte [Criar um perfil de serviço personalizado de inferência em lote](batch-iam-sr.md). | 
| modelId | Para especificar o ID ou o ARN do modelo a ser usado na inferência. | 
| inputDataConfig | Para especificar o local do S3 que contém os dados de entrada. A inferência em lote processa todos os arquivos JSONL e os arquivos de conteúdo que os acompanham nesse local do S3, seja o local uma pasta do S3 ou um único arquivo JSONL. Para obter mais informações, consulte [Formatar e carregar os dados de inferência](batch-inference-data.md). | 
| outputDataConfig | Para especificar o local do S3 no qual gravar as respostas do modelo. | 

Os seguintes campos são opcionais:


****  

| Campo | Caso de uso | 
| --- | --- | 
| modelInvocationType | Para especificar o formato da API dos dados de entrada. Defina Converse para usar o formato da API Converse ou InvokeModel (padrão) para usar formatos de solicitação específicos do modelo. Para obter mais informações sobre o formato de solicitação Converse, consulte [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). | 
| timeoutDurationInHoras | Para especificar a duração em horas após a qual o trabalho atingirá o tempo limite. | 
| tags | Para especificar qualquer tag a ser associada ao trabalho. Para obter mais informações, consulte [Marcação de recursos do Amazon Bedrock](tagging.md). | 
| vpcConfig | Para especificar a configuração da VPC a ser usada para proteger os dados durante o trabalho. Para obter mais informações, consulte [Proteger trabalhos de inferência em lote usando uma VPC](batch-vpc.md). | 
| clientRequestToken | Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte [Ensuring idempotency](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

A resposta retorna um `jobArn` que pode ser usado para fazer referência ao trabalho ao executar outras chamadas de API relacionadas à inferência em lote.

------