

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Configurar a inferência para um modelo personalizado
<a name="model-customization-use"></a>

Depois de criar um modelo personalizado, você pode configurar a inferência usando uma das seguintes opções:
+ **Comprar throughput provisionado**: adquira throughput provisionado para seu modelo e configure capacidade de computação dedicada com throughput garantido para ter um desempenho consistente e menor latência. 

  Para obter mais informações sobre throughput provisionado, consulte [Aumentar a capacidade de invocação do modelo com throughput provisionado no Amazon Bedrock](prov-throughput.md). Para ter mais informações sobre o uso de modelos personalizados com throughput provisionado, consulte [Comprar throughput provisionado para um modelo personalizado](custom-model-use-pt.md).
+ **Configurar um modelo personalizado para inferência sob demanda**: para configurar a inferência sob demanda, implante o modelo com uma implantação de modelo personalizado. Após a implantação do modelo, você o invoca usando o ARN para a implantação do modelo personalizado. Com a inferência sob demanda, você paga apenas pelo que usa e não precisa configurar recursos de computação provisionados.

  Para ter informações sobre como implantar modelos personalizados para inferência sob demanda, consulte [Implementar um modelo personalizado para inferência sob demanda](deploy-custom-model-on-demand.md).

**Topics**
+ [Comprar throughput provisionado para um modelo personalizado](custom-model-use-pt.md)
+ [Implementar um modelo personalizado para inferência sob demanda](deploy-custom-model-on-demand.md)