Configurar a inferência para um modelo personalizado - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configurar a inferência para um modelo personalizado

Depois de criar um modelo personalizado, você pode configurar a inferência usando uma das seguintes opções:

  • Comprar throughput provisionado: adquira throughput provisionado para seu modelo e configure capacidade de computação dedicada com throughput garantido para ter um desempenho consistente e menor latência.

    Para obter mais informações sobre throughput provisionado, consulte Aumentar a capacidade de invocação do modelo com throughput provisionado no Amazon Bedrock. Para ter mais informações sobre o uso de modelos personalizados com throughput provisionado, consulte Comprar throughput provisionado para um modelo personalizado.

  • Configurar um modelo personalizado para inferência sob demanda: para configurar a inferência sob demanda, implante o modelo com uma implantação de modelo personalizado. Após a implantação do modelo, você o invoca usando o ARN para a implantação do modelo personalizado. Com a inferência sob demanda, você paga apenas pelo que usa e não precisa configurar recursos de computação provisionados.

    Para ter informações sobre como implantar modelos personalizados para inferência sob demanda, consulte Implementar um modelo personalizado para inferência sob demanda.