

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Comprendi le opzioni per distribuire modelli e ottenere inferenze in Amazon AI SageMaker
<a name="deploy-model-get-started"></a>

Per aiutarti a iniziare a usare SageMaker AI Inference, consulta le seguenti sezioni che spiegano le opzioni a tua disposizione per implementare il tuo modello nell' SageMaker IA e ottenere inferenze. La sezione [Opzioni di inferenza in Amazon SageMaker AI](deploy-model-options.md) può aiutarti a determinare quale funzionalità è più adatta al tuo caso d’uso per l’inferenza.

Puoi fare riferimento alla [Risorse](inference-resources.md) sezione per ulteriori informazioni sulla risoluzione dei problemi e di riferimento, blog ed esempi comuni per aiutarti a iniziare. FAQs

**Topics**
+ [Prima di iniziare](#deploy-model-prereqs)
+ [Fasi per l’implementazione di un modello](#deploy-model-steps)
+ [Opzioni di inferenza in Amazon SageMaker AI](deploy-model-options.md)
+ [Opzioni endpoint avanzate per l'inferenza con Amazon AI SageMaker](deploy-model-advanced.md)
+ [I prossimi passi per l'inferenza con Amazon SageMaker AI](deploy-model-next-steps.md)

## Prima di iniziare
<a name="deploy-model-prereqs"></a>

Questi argomenti presuppongono che tu abbia creato e preparato uno o più modelli di machine learning e che siano pronti per la distribuzione. Non è necessario addestrare il modello all' SageMaker intelligenza artificiale per implementarlo nell' SageMaker intelligenza artificiale e ottenere inferenze. Se non disponi di un tuo modello, puoi anche utilizzare [gli algoritmi integrati dell' SageMaker IA o](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) i modelli preaddestrati.

Se non conosci l' SageMaker intelligenza artificiale e non hai ancora scelto un modello da implementare, segui i passaggi del tutorial [Get Started with Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/gs.html). Usa il tutorial per acquisire familiarità con il modo in cui l' SageMaker intelligenza artificiale gestisce il processo di data science e come gestisce l'implementazione dei modelli. Per ulteriori informazioni sull'addestramento di un modello, consulta [Addestramento di modelli](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html).

Per ulteriori informazioni, riferimenti ed esempi, consulta [Risorse](inference-resources.md).

## Fasi per l’implementazione di un modello
<a name="deploy-model-steps"></a>

Per gli endpoint di inferenza, il flusso di lavoro generale comprende:
+ Crea un modello in SageMaker AI Inference indicando gli artefatti del modello archiviati in Amazon S3 e un'immagine del contenitore.
+ Selezionare un'opzione di inferenza. Per ulteriori informazioni, consulta [Opzioni di inferenza in Amazon SageMaker AI](deploy-model-options.md).
+ Crea una configurazione dell'endpoint SageMaker AI Inference scegliendo il tipo di istanza e il numero di istanze necessarie per l'endpoint. Puoi utilizzare [Amazon SageMaker Inference Recommender](https://docs.aws.amazon.com/sagemaker/latest/dg/inference-recommender.html) per ottenere consigli sui tipi di istanze. Per inferenza serverless, devi solo fornire la configurazione di memoria necessaria in base alle dimensioni del modello. 
+ Crea un endpoint SageMaker AI Inference.
+ Richiama il tuo endpoint per ricevere come risposta un'inferenza.

Il diagramma mostra il precedente flusso di lavoro:

![\[Il flusso di lavoro descritto nel paragrafo precedente che mostra come ottenere inferenze dall'IA. SageMaker\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/inference-workflow-flowchart.png)


È possibile eseguire queste azioni utilizzando la AWS console AWS SDKs, l'SDK SageMaker Python o il CloudFormation . AWS CLI

Per l'inferenza in batch con la trasformazione in batch, punti agli artefatti del modello e ai dati di input e crei un processo di inferenza in batch. Invece di ospitare un endpoint per l'inferenza, l' SageMaker intelligenza artificiale invia le inferenze in una posizione Amazon S3 di tua scelta.