

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Compila un modello (Amazon SageMaker AI Console)
<a name="neo-job-compilation-console"></a>

Puoi creare un processo di compilazione Amazon SageMaker Neo nella console Amazon SageMaker AI.

1. Nella console **Amazon SageMaker AI**, scegli **Lavori di compilazione**, quindi scegli **Crea processo di compilazione.**  
![\[Crei un processo di compilazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/8-create-compilation-job.png)

1. Nella pagina **Crea un processo di compilazione**, per **Nome del processo**, immetti un nome. Quindi seleziona un **ruolo IAM**.  
![\[Pagina Crea un processo di compilazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/9-create-compilation-job-config.png)

1. Se non disponi di un ruolo IAM, scegli **Create a new role (Crea un nuovo ruolo)**.  
![\[Crea una posizione per il ruolo IAM.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/10a-create-iam-role.png)

1. Nella pagina **Create an IAM role (Crea un ruolo IAM)**, scegli **Any S3 bucket (Qualsiasi bucket S3)** e seleziona **Create role (Crea ruolo)**.  
![\[Pagina Crea un ruolo IAM.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/10-create-iam-role.png)

1. 

------
#### [ Non PyTorch Frameworks ]

   Nella sezione **Configurazione di input**, immetti il percorso completo dell’URI del bucket Amazon S3 che contiene gli artefatti del modello nel campo di input **Posizione degli artefatti dei modelli**. Gli artefatti del modello devono essere in un formato di file tarball compresso (`.tar.gz`). 

   Per il campo **Configurazione di input dei dati**, immetti la stringa JSON che specifica la forma dei dati di input.

   Per **Framework di machine learning**, scegli il framework a tua scelta.

![\[Pagina Configurazione di input.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/neo-create-compilation-job-input-config.png)


   Per trovare esempi di stringhe JSON di forme di dati di input che dipendono dai framework, vedi [Quali forme di dati di input si aspetta Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-troubleshooting.html#neo-troubleshooting-errors-preventing).

------
#### [ PyTorch Framework ]

   Istruzioni simili si applicano alla compilazione PyTorch dei modelli. Tuttavia, se ti sei allenato con PyTorch e stai cercando di compilare il modello per `ml_*` (eccetto`ml_inf`) target, puoi facoltativamente specificare la versione che hai usato. PyTorch 

![\[Sezione Configurazione di input di esempio che mostra dove scegliere la Versione del framework.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/compile_console_pytorch.png)


   Per trovare esempi di stringhe JSON di forme di dati di input che dipendono dai framework, vedi [Quali forme di dati di input si aspetta Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-troubleshooting.html#neo-troubleshooting-errors-preventing).

**Note**  
Se hai salvato il modello utilizzando la PyTorch versione 2.0 o successiva, il **campo di configurazione dell'immissione dei dati è facoltativo**. SageMaker Neo ottiene la configurazione di input dal file di definizione del modello con cui crei PyTorch. Per ulteriori informazioni su come creare il file di definizione, consulta la [PyTorch](neo-compilation-preparing-model.md#how-to-save-pytorch) sezione sotto *Salvare modelli per SageMaker AI Neo*.
Durante la compilazione di `ml_*` istanze utilizzando il PyTorch framework, utilizzate il campo **delle opzioni del compilatore** in **Output Configuration** per fornire il tipo di dati corretto (`dtype`) dell'input del modello. Il valore predefinito è impostato su `"float32"`. 

![\[Sezione Configurazione di output di esempio.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/neo_compilation_console_pytorch_compiler_options.png)


**avvertimento**  
 Se specifichi un percorso URI del bucket Amazon S3 che conduce al file `.pth`, riceverai il seguente errore dopo l'avvio della compilazione: `ClientError: InputConfiguration: Unable to untar input model.Please confirm the model is a tar.gz file` 

------

1.  Vai alla sezione **Configurazione di output**. Scegli dove vuoi distribuire il modello. Puoi distribuire il tuo modello su un **dispositivo di destinazione** o su una **piattaforma di destinazione**. I dispositivi di destinazione includono dispositivi cloud ed edge. Le piattaforme di destinazione si riferiscono a sistemi operativi, architetture e acceleratori specifici su cui si desidera che il modello venga eseguito. 

    Per **Posizione di output S3**, immetti il percorso verso il bucket S3 in cui desideri memorizzare il modello. Facoltativamente, puoi aggiungere opzioni del compilatore in formato JSON nella sezione **Opzioni del compilatore.**   
![\[Pagina Configurazione di output.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/neo-console-output-config.png)

1. Verifica lo stato del processo di compilazione quando viene avviato. Questo stato del processo è disponibile nella parte superiore della pagina **Processi di compilazione**, come mostrato nello screenshot seguente. Puoi anche controllarne lo stato nella colonna **Stato**.  
![\[Stato del processo di compilazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/12-run-model-compilation.png)

1. Verifica lo stato del processo di compilazione quando è completato. Puoi controllare lo stato nella colonna **Stato**, come mostrato nello screenshot seguente.  
![\[Stato del processo di compilazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/neo/12a-completed-model-compilation.png)