Implementar um modelo personalizado para inferência sob demanda
Depois de criar com sucesso um modelo personalizado com uma tarefa o de personalização de modelo (ajuste, destilação ou pré-treinamento contínuo), você pode configurar a inferência sob demanda para o modelo.
Para configurar a inferência sob demanda para um modelo personalizado, você implanta o modelo com uma implantação de modelo personalizado. Depois de implantar o modelo personalizado, use o nome do recurso da Amazon (ARN) da implantação como o parâmetro modelId nas operações de API InvokeModel ou Converse. Você pode usar o modelo implantado para inferência sob demanda com os atributos do Amazon Bedrock, como playgrounds, agentes e bases de conhecimentos.
Tópicos
Modelos compatíveis
Você pode configurar a inferência sob demanda para os seguintes modelos:
-
Amazon Nova Canvas
-
Amazon Nova Lite
-
Amazon Nova Micro
-
Amazon Nova Pro