

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo di un’implementazione per l’inferenza on demand
<a name="use-custom-model-on-demand"></a>

Dopo aver implementato il modello personalizzato per l’inferenza on demand, puoi usarlo per generare risposte effettuando richieste di inferenza. Per le operazioni `InvokeModel` o `Converse` usa il nome della risorsa Amazon (ARN) di implementazione Amazon come `modelId`.

Per ulteriori informazioni sull’esecuzione di richieste di inferenza, consulta i seguenti argomenti:
+ [Invia prompt e genera risposte con l’inferenza del modello](https://docs.aws.amazon.com/bedrock/latest/userguide/inference.html)
+ [Prerequisiti per l’esecuzione dell’inferenza del modello](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-prereq.html)
+ [Invia richieste e genera risposte usando l’API](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-api.html)