Implementar um modelo personalizado para inferência sob demanda - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implementar um modelo personalizado para inferência sob demanda

Depois de criar um modelo personalizado com um trabalho de personalização de modelo ou importar um modelo personalizado do Amazon Nova treinado pelo SageMaker AI, é possível configurar a inferência sob demanda para o modelo. Com a inferência sob demanda, você paga apenas pelo que usa e não precisa configurar recursos de computação provisionados.

Para configurar a inferência sob demanda para um modelo personalizado, implante o modelo com uma implantação de modelo personalizado. Depois de implantar o modelo personalizado, use o nome do recurso da Amazon (ARN) da implantação como o parâmetro modelId ao enviar prompts e gerar respostas com inferência do modelo.

Para ter informações sobre os preços de inferência sob demanda, consulte Preços do Amazon Bedrock. Você pode implantar um modelo personalizado para inferência sob demanda nas seguintes regiões (para ter mais informações sobre as regiões em que o Amazon Bedrock está disponível, consulte Endpoints e cotas do Amazon Bedrock):

  • Leste dos EUA (N. da Virgínia)

  • Oeste dos EUA (Oregon)

Modelos de base compatíveis

Você pode configurar a inferência sob demanda para os seguintes modelos de base:

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro

  • Llama 3.3 70B Instruct da Meta