Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo di un’implementazione per l’inferenza on demand
Dopo aver implementato il modello personalizzato per l’inferenza on demand, puoi usarlo per generare risposte effettuando richieste di inferenza. Per le operazioni InvokeModel o Converse usa il nome della risorsa Amazon (ARN) di implementazione Amazon come modelId.
Per ulteriori informazioni sull’esecuzione di richieste di inferenza, consulta i seguenti argomenti: