As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Envie um modelo de trabalho de destilação no Amazon Bedrock
Você pode realizar a destilação do modelo por meio do console do Amazon Bedrock ou enviando uma solicitação CreateModelCustomizationJobcom um endpoint do plano de controle do Amazon Bedrock.
Pré-requisitos
Quando seu trabalho de destilação for concluído, você poderá analisar os resultados do processo de personalização. Para obter mais informações, consulte Analisar os resultados de um trabalho de personalização de modelo. Para obter informações sobre como configurar a inferência para seu modelo, consulteConfigurar inferência para um modelo personalizado.
Envie seu trabalho
- Console
-
-
Faça login no AWS Management Console com um diretor do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock/.
-
No painel de navegação à esquerda, escolha Modelos personalizados em Modelos de base.
Escolha Criar tarefa de destilação.
-
Para obter detalhes do modelo Distilled, faça o seguinte:
-
Em Nome do modelo destilado, insira um nome para seu modelo destilado.
-
(Opcional) Em Criptografia de modelo, marque a caixa de seleção se quiser fornecer uma chave KMS para criptografar sua tarefa e seus artefatos relacionados.
Para obter mais informações, consulte Criptografia de modelos personalizados.
-
(Opcional) Aplique etiquetas ao seu modelo destilado.
-
Para a configuração do Job, faça o seguinte:
-
Em Nome do trabalho, insira um nome para seu trabalho de destilação.
-
(Opcional) Em Criptografia de modelo, marque a caixa de seleção se quiser fornecer uma chave KMS para criptografar sua tarefa e seus artefatos relacionados.
Para obter mais informações, consulte Criptografia de modelos personalizados.
-
(Opcional) Aplique etiquetas ao seu trabalho.
-
Para Modelo de professor — Detalhes do modelo de aluno, escolha os modelos de professor e aluno para criar seu modelo destilado.
Para obter mais informações, consulte Escolha modelos de professores e alunos para destilação.
-
Para geração de dados sintéticos, faça o seguinte:
-
Para Comprimento máximo da resposta, especifique o tamanho máximo das respostas sintéticas geradas pelo modelo do professor.
-
Para o conjunto de dados de entrada de destilação, escolha uma das seguintes opções:
-
Carregar diretamente para o local do S3 — Especifique o local do S3 em que você está armazenando o conjunto de dados de entrada (solicitações) que será usado para destilação. Para obter mais informações, consulte Opção 1: forneça suas próprias instruções para a preparação de dados.
-
Forneça acesso aos registros de invocação — especifique o local do S3 em que você está armazenando os registros de invocação com o conjunto de dados de entrada (prompts) que será usado para destilação. Para obter mais informações, consulte Opção 2: usar registros de invocação para preparação de dados.
-
(Opcional) Para filtros de metadados de solicitação, especifique filtros se quiser que o Amazon Bedrock use apenas determinados prompts em seus registros para destilação.
-
Escolha Ler prompts ou Ler pares de prompt-response, dependendo do que você deseja que o Amazon Bedrock acesse a partir de seus registros. Lembre-se de que as respostas são lidas somente se o modelo do seu professor corresponder ao modelo em seus registros.
-
Para a saída de destilação, especifique o local do S3 onde você deseja carregar as métricas e os relatórios sobre seu trabalho de destilação.
Para obter mais informações, consulte Analisar os resultados de um trabalho de personalização de modelo.
-
Para configurações de VPC, escolha uma configuração de VPC para acessar o bucket do S3 com seus dados de treinamento.
Para obter mais informações, consulte (Opcional) Proteja seus trabalhos de personalização de modelos usando uma VPC.
-
Para acesso ao serviço, especifique a função do IAM para acessar o bucket do S3 com seus dados de treinamento. A menos que você use um perfil de inferência entre regiões ou configurações de VPC, você pode criar a função no console do Amazon Bedrock com as permissões corretas configuradas automaticamente. Ou você pode usar uma função de serviço existente.
Para um trabalho que tenha configurações da Amazon VPC ou use um perfil de inferência entre regiões, você deve criar uma nova função de serviço no IAM que tenha as permissões necessárias.
Para obter mais informações, consulte Crie uma função de serviço do IAM para personalização do modelo.
-
Escolha Criar tarefa de destilação para iniciar a tarefa de destilação. Depois de personalizar um modelo, você pode configurar a inferência para o modelo. Para obter mais informações, consulte Configurar inferência para um modelo personalizado.
- API
-
No mínimo, você deve fornecer os seguintes campos para enviar seu trabalho de destilação modelo ao usar a API Amazon Bedrock.
Campo |
Descrição |
baseModelIdentifier |
O identificador do modelo do estudante |
customModelName |
O nome do novo modelo destilado |
jobName |
O nome do modelo de trabalho de destilação |
roleArn |
Função que dá ao Amazon Bedrock permissões para ler arquivos de treinamento e validação e gravar no caminho de saída |
trainingDataConfig |
O caminho do Amazon S3 que tem seus dados de treinamento |
outputDataConfig |
O caminho do Amazon S3 que contém suas métricas de treinamento e validação |
Configuração de destilação |
Entradas necessárias para o trabalho de destilação |
customModelKmsKeyId |
Para criptografar o modelo personalizado |
clientRequestToken |
Token para evitar que a solicitação seja concluída mais de uma vez |
Os seguintes campos são opcionais:
Campo |
Descrição |
Tipo de personalização |
Definido como DISTILLATION padrão para trabalhos de destilação |
validationDataConfig |
Lista de dados de validação (caminhos do Amazon S3) |
Etiquetas de emprego |
Para associar tags ao trabalho |
customModelTags |
Para associar tags ao modelo personalizado resultante |
vpcConfig |
VPC para proteger seus dados de treinamento e seu trabalho de destilação |
Para evitar que a solicitação seja concluída mais de uma vez, inclua um clientRequestToken
.
É possível incluir os campos opcionais a seguir para configurações adicionais.
Veja a seguir um exemplo de trecho da CreateModelCustomizationJobAPI. Este exemplo usa os pares de prompt-response no log de invocação como fonte de dados de entrada e especifica o filtro para selecionar pares prompt-response.
"trainingDataConfig": {
"invocationLogsConfig": {
"usePromptResponse": true,
"invocationLogSource": {
"s3Uri": "string"
},
"requestMetadataFilters": {
"equals": {
"priority": "High"
}
}
}
}
Resposta
A resposta retorna um jobArn
dos trabalhos de destilação do modelo.
Próximas etapas