

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Enviar um trabalho de destilação de modelos no Amazon Bedrock
Enviar um trabalho de destilação de modelos

Você pode realizar a destilação do modelo por meio do console do Amazon Bedrock ou enviando uma solicitação [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)com um endpoint do plano de controle do [Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

## Pré-requisitos

+ Crie uma função de serviço do IAM com as permissões necessárias. Para obter informações abrangentes sobre segurança e permissões, consulte[Acesso e segurança na personalização de modelos](custom-model-job-access-security.md).
+ (Opcional) Criptografe dados de entrada e saída, trabalhos de personalização ou solicitações de inferência feitas a modelos personalizados. Para obter mais informações, consulte [Criptografia de modelos personalizados](encryption-custom-job.md).
+ (Opcional) Crie uma Virtual Private Cloud (VPC) para proteger seu trabalho de personalização. Para obter mais informações, consulte [(Opcional) Proteger trabalhos de personalização de modelos usando uma VPC](custom-model-job-access-security.md#vpc-model-customization).

Para obter mais informações sobre como configurar a inferência sob demanda, consulte[Configurar a inferência para um modelo personalizado](model-customization-use.md).

## Enviar seu trabalho


------
#### [ Console ]

1. Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. No painel de navegação à esquerda, escolha **Modelos personalizados** em **Ajustar**.

1. Escolha **Criar trabalho de destilação**.

1. Em **Detalhes do modelo destilado**, faça o seguinte:

   1. Em **Nome do modelo destilado**, insira um nome para o modelo destilado.

   1. (Opcional) Em **Criptografia de modelos**, marque a caixa de seleção se quiser fornecer uma chave do KMS para criptografar a tarefa e os artefatos relacionados. 

      Para obter mais informações, consulte [Criptografia de modelos personalizados](encryption-custom-job.md).

   1. (Opcional) Aplique **tags** ao modelo destilado.

1. Em **Configuração adicional**, faça o seguinte:

   1. Em **Nome do trabalho**, insira um nome para o seu trabalho.

   1. (Opcional) Em **Criptografia de modelos**, marque a caixa de seleção se quiser fornecer uma chave do KMS para criptografar a tarefa e os artefatos relacionados. 

      Para obter mais informações, consulte [Criptografia de modelos personalizados](encryption-custom-job.md).

   1. (Opcional) Aplique **tags** à ao seu trabalho.

1. Em **Modelo professor – Detalhes do modelo aluno**, escolha os modelos instrutor e aprendiz para criar seu modelo destilado.

   Para obter mais informações, consulte [Pré-requisitos para destilação de modelos](prequisites-model-distillation.md).

1. Em **geração de dados sintéticos**, faça o seguinte:

   1. Em **Comprimento máximo da resposta**, especifique o tamanho máximo das respostas sintéticas geradas pelo modelo instrutor.

   1. Em **Conjunto de dados de entrada de destilação**, escolha uma das seguintes opções:
      + **Fazer upload diretamente no local do S3**: especifique o local do S3 em que você está armazenando o conjunto de dados de entrada (prompts) que será usado para destilação. Para obter mais informações, consulte [Opção 1: fornecer seus próprios prompts para a preparação de dados](distillation-data-prep-option-1.md).
      + **Fornecer acesso a logs de invocação**: especifique o local do S3 em que você está armazenando os logs de invocação com o conjunto de dados de entrada (prompts) que será usado para destilação. Para obter mais informações, consulte [Opção 2: usar logs de invocação para preparação de dados](distillation-data-prep-option-2.md).
        + (Opcional) Em **Solicitar filtros de metadados**, especifique filtros se quiser que o Amazon Bedrock use apenas determinados prompts em seus logs para destilação.
        + Escolha **Ler prompts** ou **Ler pares de prompts e respostas**, dependendo do que você deseja que o Amazon Bedrock acesse em seus logs. Lembre-se de que as respostas são lidas somente se o modelo instrutor corresponder ao modelo em seus logs.

1. Em **saída da destilação**, especifique o local do S3 onde você deseja fazer upload das métricas e dos relatórios sobre o trabalho de destilação.

   Para obter mais informações, consulte [Analisar os resultados de um trabalho de personalização de modeloAnalisar os resultados de trabalho de personalização de modelo](model-customization-analyze.md).

1. Em **configurações da VPC**, escolha uma configuração de VPC para acessar o bucket do S3 que contém seus dados de treinamento.

   Para obter mais informações, consulte [(Opcional) Proteger trabalhos de personalização de modelos usando uma VPC](custom-model-job-access-security.md#vpc-model-customization).

1. Em **Acesso ao serviço**, especifique o perfil do IAM para acessar o bucket do S3 com seus dados de treinamento. A menos que você use configurações de VPC ou um perfil de inferência entre regiões, você pode criar um perfil no console do Amazon Bedrock com as permissões corretas configuradas automaticamente. Ou você pode usar um perfil de serviço existente. 

    Para um trabalho que tenha configurações da Amazon VPC ou use um perfil de inferência entre regiões, você deve criar outro perfil de serviço no IAM que tenha as permissões necessárias. 

   Para obter mais informações, consulte [Criar um perfil de serviço do IAM para a personalização de modelo](custom-model-job-access-security.md#custom-model-job-service-role).

1. Escolha **Criar trabalho de destilação** para iniciar o trabalho de destilação. Depois de personalizar um modelo, você pode configurar a inferência para o modelo. Para obter mais informações, consulte [Configurar a inferência para um modelo personalizado](model-customization-use.md). 

------
#### [ API ]

No mínimo, você deve fornecer os campos a seguir para enviar seu trabalho de destilação de modelos ao usar a API do Amazon Bedrock.


****  

| Campo | Description | 
| --- | --- | 
| baseModelIdentifier | O identificador do modelo aprendiz. | 
| customModelName | O nome do novo modelo destilado. | 
| jobName | O nome do trabalho de destilação de modelos. | 
| roleArn | Perfil que dá ao Amazon Bedrock permissões para ler arquivos de treinamento e validação e gravar no caminho de saída. | 
| trainingDataConfig | O caminho do Amazon S3 que tem seus dados de treinamento. | 
| outputDataConfig | O caminho do Amazon S3 que contém suas métricas de treinamento e validação. | 
| distillationConfig | Entradas necessárias para o trabalho de destilação. | 
| customModelKmsKeyId | Para criptografar o modelo personalizado. | 
| clientRequestToken | Token para evitar que a solicitação seja concluída mais de uma vez. | 

Os seguintes campos são opcionais:


****  

| Campo | Description | 
| --- | --- | 
| customizationType | Definido como DISTILLATION  padrão para trabalhos de destilação. | 
| validationDataConfig | Lista de dados de validação de caminhos do Amazon S3. | 
| jobTags | Para associar tags ao trabalho. | 
| customModelTags | Para associar tags ao modelo personalizado resultante. | 
| vpcConfig | VPC para proteger seus dados de treinamento e seu trabalho de destilação. | 

Para evitar que a solicitação seja concluída mais de uma vez, inclua um `clientRequestToken`.

É possível incluir os campos opcionais a seguir para configurações adicionais.
+ `jobTags` and/or `customModelTags`— Associe as [tags](tagging.md) ao trabalho de personalização ou ao modelo personalizado resultante.
+ `vpcConfig`: inclua a configuração de uma [nuvem privada virtual (VPC) para proteger os dados de treinamento e o trabalho de personalização](custom-model-job-access-security.md#vpc-model-customization).

Veja a seguir um exemplo de trecho da [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)API. Este exemplo usa os pares de prompt-resposta no log de invocação como fonte de dados de entrada e especifica o filtro para selecionar pares de prompt-resposta. 

```
"trainingDataConfig": {
    "invocationLogsConfig": {
        "usePromptResponse": true,
        "invocationLogSource": {
            "s3Uri": "string"
        },
        "requestMetadataFilters": {
            "equals": {
                "priority": "High"
            }
        }
    }
}
```

**Resposta**

A resposta exibe um `jobArn` dos trabalhos de destilação de modelos.

------

## Próximas etapas

+ [Monitore seu trabalho de destilação](model-customization-monitor.md). Para obter mais informações sobre como configurar a inferência sob demanda, consulte[Configurar a inferência para um modelo personalizado](model-customization-use.md).