

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Implementazione di modelli di Autopilot per l’inferenza in tempo reale
<a name="text-classification-deploy-models"></a>

Dopo aver addestrato i tuoi modelli Amazon SageMaker Autopilot, puoi configurare un endpoint e ottenere previsioni in modo interattivo. La sezione seguente descrive i passaggi per distribuire il modello su un endpoint di inferenza SageMaker AI in tempo reale per ottenere previsioni dal modello.

## Inferenza in tempo reale
<a name="autopilot-deploy-models-text-image-classification-realtime"></a>

L'inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza. Questa sezione mostra come utilizzare l'inferenza in tempo reale per ottenere previsioni in modo interattivo dal modello.

Puoi utilizzarlo SageMaker APIs per distribuire manualmente il modello che ha prodotto la migliore metrica di convalida in un esperimento Autopilot come segue.

In alternativa, puoi scegliere l'opzione di implementazione automatica durante la creazione dell'esperimento Autopilot. Per informazioni sulla configurazione dell’implementazione automatica dei modelli, consulta `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nei parametri di richiesta di `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestParameters)`. Questo crea automaticamente un endpoint.

**Nota**  
Per evitare di incorrere in costi inutili, puoi eliminare gli endpoint e le risorse non necessari creati dall'implementazione del modello. Per informazioni sui prezzi delle istanze per regione, consulta la pagina [ SageMaker dei prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing/).

1. **Ottenere le definizioni dei container di candidati**

   Ottieni le definizioni dei container candidati da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers). Una definizione di contenitore per inferenza si riferisce all'ambiente containerizzato progettato per implementare ed eseguire un modello di SageMaker intelligenza artificiale addestrato per fare previsioni. 

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere le definizioni candidate per il miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Elencare i candidati**

   Il seguente esempio di AWS CLI comando utilizza l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i modelli candidati.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Usa le definizioni dei contenitori dei passaggi precedenti e un candidato a tua scelta per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint**

   Il seguente esempio di AWS CLI comando utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Creare l'endpoint ** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   La seguente struttura di comandi richiama l'endpoint per l'inferenza in tempo reale.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```