

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# SageMaker Pilota automatico
<a name="autopilot-automate-model-development"></a>

**Importante**  
A partire dal 30 novembre 2023, l'interfaccia utente di Autopilot sta migrando su [ SageMaker Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas.html) Canvas come parte dell'esperienza [Amazon SageMaker ](studio-updated.md) Studio aggiornata. SageMaker Canvas offre agli analisti e ai citizen data scientist funzionalità senza codice per attività come la preparazione dei dati, l'ingegneria delle funzionalità, la selezione degli algoritmi, la formazione e l'ottimizzazione, l'inferenza e altro ancora. Gli utenti possono sfruttare le visualizzazioni integrate e l’analisi ipotetica per esplorare i propri dati e diversi scenari, con previsioni automatizzate che consentono loro di produrre facilmente i propri modelli. Canvas supporta una varietà di casi d’uso, tra cui visione artificiale, previsione della domanda, Ricerca intelligente e IA generativa.  
 Gli utenti di [Amazon SageMaker Studio Classic](studio.md), l'esperienza precedente di [Studio](studio-updated.md), possono continuare a utilizzare l'interfaccia utente Autopilot in Studio Classic. Gli utenti con esperienza di programmazione possono continuare a utilizzare tutti i [riferimenti API](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html) in qualsiasi SDK supportato per l’implementazione tecnica.  
Se hai utilizzato Autopilot in Studio Classic fino ad ora e desideri migrare a SageMaker Canvas, potresti dover concedere autorizzazioni aggiuntive al tuo profilo utente o al tuo ruolo IAM in modo da poter creare e utilizzare l'applicazione Canvas. SageMaker Per ulteriori informazioni, consulta [(Facoltativo) Esegui la migrazione da Autopilot in Studio Classic a Canvas SageMaker](studio-updated-migrate-ui.md#studio-updated-migrate-autopilot).  
[Tutte le istruzioni relative all'interfaccia utente contenute in questa guida riguardano le funzionalità autonome di Autopilot prima della migrazione ad Amazon Canvas. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas.html) Gli utenti che seguono queste istruzioni devono utilizzare [Studio Classic](studio.md).

Amazon SageMaker Autopilot è un set di funzionalità che semplifica e accelera varie fasi del flusso di lavoro di machine learning automatizzando il processo di creazione e distribuzione di modelli di machine learning (AutoML). La pagina seguente spiega le informazioni chiave su Amazon SageMaker Autopilot.

Autopilot esegue le seguenti attività chiave che puoi utilizzare con l’autopilot o con vari gradi di guida umana:
+ **Analisi e preelaborazione dei dati:** Autopilot identifica il tipo di problema specifico, gestisce i valori mancanti, normalizza i dati, seleziona le funzionalità e nel complesso prepara i dati per l'addestramento dei modelli.
+ **Selezione del modello:** Autopilot esplora una varietà di algoritmi e utilizza una tecnica di ricampionamento a convalida incrociata per generare metriche che valutano la qualità predittiva degli algoritmi sulla base di metriche oggettive predefinite.
+ **Ottimizzazione degli iperparametri:** Autopilot automatizza la ricerca di configurazioni iperparametriche ottimali.
+ **Addestramento e valutazione dei modelli:** Autopilot automatizza il processo di addestramento e valutazione di vari modelli candidati. Suddivide i dati in set di addestramento e convalida, addestra i candidati modello selezionati utilizzando i dati di addestramento e valuta le loro prestazioni sulla base dei dati invisibili del set di convalida. Infine, classifica i modelli candidati ottimizzati in base alle loro prestazioni e identifica il modello con le migliori prestazioni.
+ **Implementazione del modello:** una volta identificato il modello con le migliori prestazioni, Autopilot offre la possibilità di implementarlo automaticamente generando gli artefatti del modello e l’endpoint esponendo un’API (Application Programming Interface). Le applicazioni esterne possono inviare dati all'endpoint e ricevere le previsioni o le inferenze corrispondenti.

Autopilot supporta la creazione di modelli di apprendimento automatico su set di dati di grandi dimensioni, fino a centinaia di. GBs

Il seguente diagramma descrive le attività di questo processo AutoML gestito da Autopilot.

![\[Panoramica del processo Amazon SageMaker Autopilot AutoML.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/Autopilot-process-graphic-1.png)


A seconda del tuo livello di dimestichezza con il processo di machine learning e l'esperienza di programmazione, puoi usare Autopilot in diversi modi:
+ **Utilizzando l’interfaccia utente di Studio Classic**, gli utenti possono scegliere tra un’esperienza no code o un certo livello di input umano.
**Nota**  
Solo gli esperimenti creati da dati tabulari per tipi di problemi come la regressione o la classificazione sono disponibili tramite l’interfaccia utente di Studio Classic.
+ **Utilizzando l'API AutoML**, gli utenti con esperienza di programmazione possono utilizzare available per SDKs creare lavori AutoML. Questo approccio offre maggiore flessibilità, un numero superiore di opzioni di personalizzazione ed è disponibile per tutti i tipi di problemi.

La attualmente Autopilot supporta i seguenti tipi di problemi:

**Nota**  
Per problemi di regressione o classificazione che coinvolgono dati tabulari, gli utenti possono scegliere tra due opzioni: utilizzare l’interfaccia utente di Studio Classic o la [documentazione di riferimento dell’API](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html).  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.
+ **Classificazione di regressione, binaria e multiclasse** con dati tabulari formattati come file CSV o Parquet in cui ogni colonna contiene una funzione con un tipo di dati specifico e ogni riga contiene un'osservazione. I tipi di dati delle colonne accettati includono serie numeriche, categoriali, testuali e temporali costituite da stringhe di numeri separati da virgole.
  + Per creare un lavoro Autopilot come esperimento pilota utilizzando il riferimento API, consulta. SageMaker [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md)
  + Per creare un processo Autopilot come esperimento pilota utilizzando l’interfaccia utente di Studio Classic, consulta [Creare un esperimento Autopilot di regressione o classificazione per dati tabulari utilizzando l’interfaccia utente di Studio Classic](autopilot-automate-model-development-create-experiment-ui.md).
  + Gli amministratori che desiderano preconfigurare i parametri predefiniti di infrastruttura, rete o sicurezza degli esperimenti Autopilot nell’interfaccia utente di Studio Classic possono consultare [Configura i parametri predefiniti di un esperimento Autopilot (per amministratori)](autopilot-set-default-parameters-create-experiment.md). 
+ **Classificazione del testo** con dati formattati come file CSV o Parquet in cui una colonna fornisce le frasi da classificare, mentre un'altra colonna deve fornire l'etichetta di classe corrispondente. Per informazioni, consulta [Creazione di un processo AutoML per la classificazione del testo utilizzando l’API](autopilot-create-experiment-text-classification.md).
+ **Classificazione delle immagini** con formati di immagini come PNG, JPEG o una combinazione di entrambi. Consulta [Creare un processo di classificazione delle immagini utilizzando l’API AutoML](autopilot-create-experiment-image-classification.md).
+ **Previsione di serie temporali** con dati di serie temporali formattati come file CSV o Parquet. Consulta [Creare un processo AutoML per la previsione di serie temporali mediante l’API](autopilot-create-experiment-timeseries-forecasting.md).
+ Ottimizzazione di modelli linguistici di grandi dimensioni (LLMs) per la **generazione di testo** con dati formattati come file CSV o Parquet. Vedi. [Creare un processo AutoML per eseguire il fine-tuning di modelli di generazione di testo utilizzando l’API](autopilot-create-experiment-finetune-llms.md)

Inoltre, Autopilot aiuta gli utenti a capire come i modelli effettuano previsioni generando automaticamente report che mostrano l'importanza di ogni singola funzionalità. Ciò fornisce trasparenza e informazioni sui fattori che influenzano le previsioni, che possono essere utilizzate dai team di rischio e conformità e dalle autorità di regolamentazione esterne. Autopilot fornisce anche un modello di rapporto sulle prestazioni, che comprende un riepilogo delle metriche di valutazione, una matrice di confusione, varie visualizzazioni come le curve caratteristiche di funzionamento del ricevitore e le curve di richiamo di precisione e altro ancora. Il contenuto specifico di ogni rapporto varia a seconda del tipo di problema dell'esperimento Autopilot.

I report sulla spiegabilità e sulle prestazioni per il miglior modello candidato in un esperimento Autopilot sono disponibili per tipi di problemi di classificazione di dati tabulari, testo e immagini.

Per casi d’uso di dati tabulari come la regressione o la classificazione, Autopilot offre ulteriore visibilità sul modo in cui i dati sono stati disposti e su come i modelli candidati sono stati selezionati, addestrati e ottimizzati, generando notebook che contengono il codice utilizzato per esplorare i dati e trovare il modello con le migliori prestazioni. Questi notebook forniscono un ambiente interattivo ed esplorativo per aiutarti a conoscere l'impatto di vari input o i compromessi raggiunti negli esperimenti. È possibile sperimentare ulteriormente con il modello candidato dalle prestazioni più elevate apportando le proprie modifiche ai notebook per l'esplorazione dei dati e la definizione dei candidati forniti da Autopilot. 

Con Amazon SageMaker AI, paghi solo per ciò che usi. Paghi per le risorse di elaborazione e archiviazione sottostanti all'interno dell' SageMaker intelligenza artificiale o di altri AWS servizi, in base all'utilizzo. Per ulteriori informazioni sul costo dell'utilizzo dell' SageMaker intelligenza artificiale, consulta [ SageMakeri prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing).

**Topics**
+ [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md)
+ [Creare un processo di classificazione delle immagini utilizzando l’API AutoML](autopilot-create-experiment-image-classification.md)
+ [Creazione di un processo AutoML per la classificazione del testo utilizzando l’API](autopilot-create-experiment-text-classification.md)
+ [Creare un processo AutoML per la previsione di serie temporali mediante l’API](autopilot-create-experiment-timeseries-forecasting.md)
+ [Creare un processo AutoML per eseguire il fine-tuning di modelli di generazione di testo utilizzando l’API](autopilot-create-experiment-finetune-llms.md)
+ [Creare un esperimento Autopilot di regressione o classificazione per dati tabulari utilizzando l’interfaccia utente di Studio Classic](autopilot-automate-model-development-create-experiment-ui.md)
+ [Notebook di esempio di Amazon SageMaker Autopilot](autopilot-example-notebooks.md)
+ [Video: utilizzare Autopilot per automatizzare ed esplorare il processo di machine learning](autopilot-videos.md)
+ [Quote Autopilot](autopilot-quotas.md)
+ [Guida al riferimento API per Autopilot](autopilot-reference.md)

# Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML
<a name="autopilot-automate-model-development-create-experiment"></a>

È possibile creare un processo di regressione o classificazione di Autopilot per dati tabulari a livello di programmazione chiamando l’azione dell’API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html) in qualsiasi linguaggio supportato da Autopilot o dall’ AWS CLI. Di seguito è riportata una raccolta di parametri di richiesta di input obbligatori e facoltativi per l'azione API `CreateAutoMLJobV2`. È possibile trovare informazioni alternative per la versione precedente di questa azione, `CreateAutoMLJob`. Tuttavia, consigliamo di utilizzare `CreateAutoMLJobV2`. 

Per informazioni su come questa azione API si traduce in una funzione nella lingua che preferisci, consulta [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

**Nota**  
[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html) e [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) sono nuove versioni di [CreateAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html)e offrono compatibilità con [DescribeAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html)le versioni precedenti.  
Si consiglia di utilizzare `CreateAutoMLJobV2`. `CreateAutoMLJobV2` è in grado di gestire tipi di problemi tabulari identici a quelli della versione precedente `CreateAutoMLJob`, nonché tipi di problemi non tabulari come la classificazione di immagini o testi o la previsione di serie temporali.

Come minimo, tutti gli esperimenti sui dati tabulari richiedono la specifica del nome dell’esperimento, l’indicazione delle posizioni per i dati di input e output e la definizione dei dati di destinazione da prevedere. Facoltativamente, è anche possibile specificare il tipo di problema da risolvere (regressione, classificazione, classificazione multiclasse), scegliere la strategia di modellazione (*ensemble impilati* oppure *ottimizzazione degli iperparametri*), selezionare l’elenco di algoritmi utilizzati dal processo Autopilot per addestrare i dati e altro ancora. 

 Dopo l’esecuzione dell’esperimento, è possibile confrontare le prove e approfondire i dettagli delle fasi di pre-elaborazione, degli algoritmi e degli intervalli di iperparametri di ciascun modello. È inoltre possibile scaricare i relativi report sulla [spiegabilità](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-explainability.html) e sulle [prestazioni.](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-insights.html) Utilizza i [notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-notebook-output.html ) forniti per visualizzare i risultati dell'esplorazione automatica dei dati o le definizioni dei modelli candidati.

Trova le linee guida su come migrare un `CreateAutoMLJob` a `CreateAutoMLJobV2` in[Esegui la migrazione da a V2 CreateAuto MLJob CreateAuto MLJob](#autopilot-create-experiment-api-migrate-v1-v2).

## Parametri obbligatori
<a name="autopilot-create-experiment-api-required-params"></a>

------
#### [ CreateAutoMLJobV2 ]

Quando chiami `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per dati tabulari, devi fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)` per specificare l'origine dati.
+ Sia un parametro `[AutoMLJobObjective](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobObjective)` che il tipo di problema di apprendimento supervisionato prescelto (classificazione binaria, classificazione multiclasse, regressione) in `AutoMLProblemTypeConfig` o nessuno. Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`. Hai impostato il problema dell'apprendimento supervisionato nell'attributo `ProblemType` di `TabularJobConfig`.
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

------
#### [ CreateAutoMLJob ]

Durante la chiamata `[CreateAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html)` per creare un esperimento AutoML, devi fornire i quattro valori seguenti:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-AutoMLJobName)` per specificare il nome del processo.
+ Almeno un `[AutoMLChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html)` in `[InputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-InputDataConfig)` per specificare l'origine dati.
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

------

Tutti gli altri parametri sono facoltativi.

## Parametri facoltativi
<a name="autopilot-create-experiment-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri opzionali che è possibile passare all'azione API `CreateAutoMLJobV2` quando si utilizzano dati tabulari. È possibile trovare informazioni alternative per la versione precedente di questa azione, `CreateAutoMLJob`. Tuttavia, consigliamo di utilizzare `CreateAutoMLJobV2`.

### Come impostare la modalità di addestramento di un processo AutoML
<a name="autopilot-set-training-mode"></a>

Per quanto riguarda i dati tabulari, l'insieme di algoritmi eseguiti sui dati per addestrare i candidati modello dipende dalla strategia di modellazione utilizzata (`ENSEMBLING` o `HYPERPARAMETER_TUNING`). Di seguito viene descritto in dettaglio come impostare questa modalità di addestramento.

Se lasci vuoto (o `null`), viene dedotto `Mode` in base alla dimensione del set di dati.

Per informazioni sui metodi di addestramento *raggruppati impilati* e *ottimizzazione degli iperparametri* di Autopilot, consulta [Modalità di addestramento e supporto degli algoritmi](autopilot-model-support-validation.md)

------
#### [ CreateAutoMLJobV2 ]

Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

È possibile impostare il [metodo di addestramento](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html) di un processo AutoML V2 con il parametro `[TabularJobConfig.Mode](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)`.

------
#### [ CreateAutoMLJob ]

È possibile impostare il [metodo di addestramento](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html) di un processo AutoML con il parametro `[AutoMLJobConfig.Mode](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html#sagemaker-Type-AutoMLJobConfig-Mode)`.

------

### Come selezionare funzionalità e algoritmi per l’addestramento di un processo AutoML
<a name="autopilot-feature-selection"></a>

#### Selezione delle funzionalità
<a name="autopilot-automl-job-feature-selection-api"></a>

Autopilot fornisce fasi automatiche di preelaborazione dei dati, tra cui la selezione e l'estrazione delle funzionalità. Tuttavia, è possibile fornire manualmente le funzionalità da utilizzare durante l’addestramento con l'attributo `FeatureSpecificatioS3Uri`.

Le funzionalità selezionate devono essere contenute in un file JSON nel formato seguente:

```
{ "FeatureAttributeNames":["col1", "col2", ...] }
```

I valori elencati in `["col1", "col2", ...]` fanno distinzione tra maiuscole e minuscole. Dovrebbero essere un elenco di stringhe contenenti valori univoci che sono sottoinsiemi dei nomi delle colonne nei dati di input.

**Nota**  
L'elenco di colonne fornito come funzionalità non può includere la colonna di destinazione.

------
#### [ CreateAutoMLJobV2 ]

Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

È possibile impostare l'URL delle funzionalità selezionate con il parametro `[TabularJobConfig.FeatureSpecificationS3Uri](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)`.

------
#### [ CreateAutoMLJob ]

È possibile impostare l'`FeatureSpecificatioS3Uri`attributo [Auto MLCandidate GenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html) all'interno dell'[CreateAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html)API con il seguente formato:

```
{
    "[AutoMLJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-AutoMLJobConfig)": {
        "[CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html#sagemaker-Type-AutoMLJobConfig-CandidateGenerationConfig)": {
            "[FeatureSpecificationS3Uri](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html#sagemaker-Type-AutoMLCandidateGenerationConfig-FeatureSpecificationS3Uri)":"string"
            },
       }
  }
```

------

#### Selezione degli algoritmi
<a name="autopilot-automl-job-algorithms-selection-api"></a>

Per impostazione predefinita, il processo di Autopilot esegue un elenco predefinito di algoritmi sul set di dati per addestrare candidati modello. L'elenco degli algoritmi dipende dalla modalità (`ENSEMBLING` o `HYPERPARAMETER_TUNING`) di addestramento utilizzata dal processo.

È possibile fornire un sottoinsieme della selezione predefinita di algoritmi.

------
#### [ CreateAutoMLJobV2 ]

Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

È possibile specificare un array di selezioni `AutoMLAlgorithms` nell'`AlgorithmsConfig`attributo di [CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html).

Di seguito è riportato un esempio di attributo `AlgorithmsConfig` che elenca esattamente tre algoritmi («xgboost», «fastai», «catboost») nel loro campo `AutoMLAlgorithms` per la modalità di addestramento di raggruppamento.

```
{
   "[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)": {
        "[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)": {
          "[Mode](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)": "ENSEMBLING",
          "[CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html)": {
            "[AlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html#sagemaker-Type-CandidateGenerationConfig-AlgorithmsConfig)":[
               {"[AutoMLAlgorithms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html)":["xgboost", "fastai", "catboost"]}
            ]
         },
       },
     },
  }
```

------
#### [ CreateAutoMLJob ]

È possibile specificare un array di `AutoMLAlgorithms` selezioni nell'`AlgorithmsConfig`attributo [Auto MLCandidate GenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html).

Di seguito è riportato un esempio di attributo `AlgorithmsConfig` che elenca esattamente tre algoritmi («xgboost», «fastai», «catboost») nel loro campo `AutoMLAlgorithms` per la modalità di addestramento di raggruppamento.

```
{
   "[AutoMLJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-AutoMLJobConfig)": {
        "[CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html#sagemaker-Type-AutoMLJobConfig-CandidateGenerationConfig)": {
            "[AlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html#sagemaker-Type-AutoMLCandidateGenerationConfig-AlgorithmsConfig)":[
               {"[AutoMLAlgorithms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html#sagemaker-Type-AutoMLAlgorithmConfig-AutoMLAlgorithms)":["xgboost", "fastai", "catboost"]}
            ]
         },
     "Mode": "ENSEMBLING" 
  }
```

------

Per l'elenco degli algoritmi disponibili per ogni addestramento `Mode`, vedere [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html#sagemaker-Type-AutoMLAlgorithmConfig-AutoMLAlgorithms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html#sagemaker-Type-AutoMLAlgorithmConfig-AutoMLAlgorithms). Per informazioni dettagliate su ciascun algoritmo, vedere [Modalità di addestramento e supporto degli algoritmi](autopilot-model-support-validation.md).

### Come specificare i set di dati di addestramento e convalida di un processo AutoML
<a name="autopilot-data-sources-training-or-validation"></a>

Puoi fornire il tuo set di dati di convalida e un rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati.

------
#### [ CreateAutoMLJobV2 ]

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)oggetto (vedi il parametro richiesto [Auto MLJob InputDataConfig](https://docs.aws.amazon.com/sagemaker-api/src/AWSSageMakerAPIDoc/build/server-root/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come i dati devono essere utilizzati durante la creazione di un modello di apprendimento automatico. È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida.

Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati.
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLJobChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

------
#### [ CreateAutoMLJob ]

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html)oggetto (vedi il parametro richiesto [InputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-InputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come i dati devono essere utilizzati durante la creazione di un modello di apprendimento automatico. È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida.

Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati.
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

------

Per informazioni sulla suddivisione e la convalida incrociata in Autopilot, consultare [Convalida incrociata in Autopilot](autopilot-metrics-validation.md#autopilot-cross-validation).

### Come impostare il tipo di problema di un processo AutoML
<a name="autopilot-set-problem-type-api"></a>

------
#### [ CreateAutoMLJobV2 ]

Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

È possibile specificare ulteriormente il tipo di problema di apprendimento supervisionato (classificazione binaria, classificazione multiclasse, regressione) disponibile per i candidati modello del processo AutoML V2 con il parametro `[TabularJobConfig.ProblemType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)`.

------
#### [ CreateAutoMLJob ]

È possibile impostare il [tipo di problema](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-datasets-problem-types.html#autopilot-problem-types) su un processo AutoML con il parametro `[CreateAutoPilot.ProblemType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-ProblemType)`. Questo parametro limita il tipo di preelaborazione e gli algoritmi tentati da Autopilot. Dopo il processo, se hai impostato `[CreateAutoPilot.ProblemType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-ProblemType)`, il `[ResolvedAttribute.ProblemType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ResolvedAttributes.html)` corrisponde al `ProblemType` da te impostato. Se lo lasci vuoto (o `null`), il `ProblemType` viene dedotto al posto tuo. 

------

**Nota**  
In alcuni casi, Autopilot non è in grado di dedurre `ProblemType` con un livello di fiducia abbastanza elevato, nel qual caso è necessario fornire il valore del processo per riuscire nell’operazione.

### Come aggiungere pesi di esempio a un processo AutoML
<a name="autopilot-add-sample-weights-api"></a>

È possibile aggiungere una colonna di pesi di esempio al set di dati tabulare e quindi passarla al processo AutoML per richiedere la ponderazione delle righe del set di dati durante l’addestramento e la valutazione.

Il supporto per i pesi dei campioni è disponibile solo in [modalità raggruppamento](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html#autopilot-training-mode). I pesi devono essere numerici e non negativi. Sono esclusi i punti dati con un valore di peso non valido o assente. Per ulteriori informazioni sui parametri disponibili, consulta [Parametri ponderati per Autopilot](autopilot-metrics-validation.md#autopilot-weighted-metrics).

------
#### [ CreateAutoMLJobV2 ]

Per i dati tabulari, devi scegliere `[TabularJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

Per impostare i pesi dei campioni durante la creazione di un esperimento (vedi [CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)), puoi passare il nome della colonna dei pesi di esempio nell'`SampleWeightAttributeName`attributo dell'oggetto. `TabularJobConfig` Ciò garantisce che il parametro oggettivo utilizzi i pesi per l’addestramento, la valutazione e la selezione dei candidati modello.

------
#### [ CreateAutoMLJob ]

[Per impostare i pesi dei campioni durante la creazione di un esperimento (vedi [CreateAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html)), potete passare il nome della colonna dei pesi dei campioni nell'`SampleWeightAttributeName`attributo dell'oggetto Auto. MLChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html) Ciò garantisce che il parametro oggettivo utilizzi i pesi per l’addestramento, la valutazione e la selezione dei candidati modello.

------

### Come configurare AutoML per avviare un processo remoto su EMR Serverless per set di dati di grandi dimensioni
<a name="autopilot-set-emr-serverless-api-tabular"></a>

È possibile configurare un processo AutoML V2 per avviare automaticamente un processo remoto su Amazon EMR Serverless quando sono necessarie risorse di calcolo aggiuntive per elaborare set di dati di grandi dimensioni. Passando senza problemi a EMR Serverless quando necessario, il processo AutoML è in grado di gestire set di dati che altrimenti supererebbero le risorse inizialmente allocate, senza alcun intervento manuale da parte dell’utente. EMR Serverless è disponibile per tipi di problemi relativi a dati tabulari e serie temporali. È consigliabile configurare questa opzione per set di dati tabulari di dimensioni superiori a 5 GB.

Per consentire al processo AutoML V2 di passare automaticamente a EMR Serverless per set di dati di grandi dimensioni, è necessario fornire un oggetto `EmrServerlessComputeConfig` che includa un campo `ExecutionRoleARN` ad `AutoMLComputeConfig` nella richiesta di input del processo AutoML V2.

`ExecutionRoleARN` è l’ARN del ruolo IAM che concede al processo AutoML V2 le autorizzazioni necessarie per eseguire i processi EMR Serverless.

Questo ruolo deve avere la relazione di attendibilità seguente:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "Service": "emr-serverless.amazonaws.com"
            },
            "Action": "sts:AssumeRole"
        }
    ]
}
```

------

E concedere le autorizzazioni per:
+ creare, elencare e aggiornare le applicazioni EMR Serverless;
+ avviare, elencare, ottenere o annullare esecuzioni di job su un’applicazione EMR Serverless;
+ etichettare le risorse EMR Serverless;
+ passare un ruolo IAM al servizio EMR Serverless per l’esecuzione.

  Concedendo l’autorizzazione `iam:PassRole`, il processo AutoML V2 può assumere temporaneamente il ruolo `EMRServerlessRuntimeRole-*` e passarlo al servizio EMR Serverless. Questi sono i ruoli IAM utilizzati dagli ambienti di esecuzione dei lavori EMR Serverless per accedere ad altri AWS servizi e risorse necessari durante il runtime, come Amazon S3 per l'accesso ai dati, per la registrazione, CloudWatch l'accesso al AWS Glue Data Catalog o altri servizi in base ai requisiti del carico di lavoro.

  Per informazioni dettagliate sulle autorizzazioni di questo ruolo, consulta [Job runtime roles for Amazon EMR Serverless](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/security-iam-runtime-role.html).

La policy IAM definita nel documento JSON fornito concede queste autorizzazioni:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Sid": "EMRServerlessCreateApplicationOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:CreateApplication",
            "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessListApplicationOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:ListApplications",
            "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessApplicationOperations",
            "Effect": "Allow",
            "Action": [
                "emr-serverless:UpdateApplication",
                "emr-serverless:GetApplication"
            ],
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessStartJobRunOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:StartJobRun",
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessListJobRunOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:ListJobRuns",
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessJobRunOperations",
            "Effect": "Allow",
            "Action": [
                "emr-serverless:GetJobRun",
                "emr-serverless:CancelJobRun"
            ],
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*/jobruns/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessTagResourceOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:TagResource",
            "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "IAMPassOperationForEMRServerless",
            "Effect": "Allow",
            "Action": "iam:PassRole",
            "Resource": "arn:aws:iam::*:role/EMRServerlessRuntimeRole-*",
            "Condition": {
                "StringEquals": {
                    "iam:PassedToService": "emr-serverless.amazonaws.com",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
         }
    ]
}
```

------

## Esegui la migrazione da a V2 CreateAuto MLJob CreateAuto MLJob
<a name="autopilot-create-experiment-api-migrate-v1-v2"></a>

Consigliamo agli utenti di `CreateAutoMLJob` di migrare a `CreateAutoMLJobV2`.

Questa sezione spiega le differenze nei parametri di input tra [CreateAutoMLJob](https://docs.aws.amazon.com/sagemaker-api/src/AWSSageMakerAPIDoc/build/server-root/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#API_CreateAutoMLJob_RequestSyntax)e [CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax) evidenziando le modifiche nella posizione, nel nome o nella struttura degli oggetti e degli attributi della richiesta di input tra le due versioni.
+ **Attributi della richiesta che non sono cambiati tra le versioni.**

  ```
  {
     "AutoMLJobName": "string",
     "AutoMLJobObjective": { 
        "MetricName": "string"
     },
     "ModelDeployConfig": { 
        "AutoGenerateEndpointName": boolean,
        "EndpointName": "string"
     },
     "OutputDataConfig": { 
        "KmsKeyId": "string",
        "S3OutputPath": "string"
     },
     "RoleArn": "string",
     "Tags": [ 
        { 
           "Key": "string",
           "Value": "string"
        }
     ]
  }
  ```
+ **Richiedi gli attributi che hanno modificato la posizione e la struttura tra le versioni.**

  La posizione dei seguenti attributi è cambiata: `DataSplitConfig`, `Security Config`, `CompletionCriteria`, `Mode`, `FeatureSpecificationS3Uri`, `SampleWeightAttributeName`, `TargetAttributeName`.

------
#### [ CreateAutoMLJob ]

  ```
  { 
      "AutoMLJobConfig": { 
          "Mode": "string",
          "CompletionCriteria": { 
              "MaxAutoMLJobRuntimeInSeconds": number,
              "MaxCandidates": number,
              "MaxRuntimePerTrainingJobInSeconds": number
          },
          "DataSplitConfig": { 
              "ValidationFraction": number
          },
          "SecurityConfig": { 
              "EnableInterContainerTrafficEncryption": boolean,
              "VolumeKmsKeyId": "string",
              "VpcConfig": { 
              "SecurityGroupIds": [ "string" ],
              "Subnets": [ "string" ]
              }
          },
          "CandidateGenerationConfig": { 
              "FeatureSpecificationS3Uri": "string"
          }
      },
      "GenerateCandidateDefinitionsOnly": boolean,
      "ProblemType": "string"
  }
  ```

------
#### [ CreateAutoMLJobV2 ]

  ```
  {       
      "AutoMLProblemTypeConfig": {
          "TabularJobConfig": {
              "Mode": "string",
              "ProblemType": "string",
              "GenerateCandidateDefinitionsOnly": boolean,
              "CompletionCriteria": { 
                  "MaxAutoMLJobRuntimeInSeconds": number,
                  "MaxCandidates": number,
                  "MaxRuntimePerTrainingJobInSeconds": number
              },
              "FeatureSpecificationS3Uri": "string",
              "SampleWeightAttributeName": "string",
              "TargetAttributeName": "string"
          }
      },
      "DataSplitConfig": { 
          "ValidationFraction": number
      },
      "SecurityConfig": { 
          "EnableInterContainerTrafficEncryption": boolean,
          "VolumeKmsKeyId": "string",
          "VpcConfig": { 
              "SecurityGroupIds": [ "string" ],
              "Subnets": [ "string" ]
          }
      }
  }
  ```

------
+ **I seguenti attributi hanno modificato la posizione e la struttura tra le versioni.**

  Il seguente codice JSON illustra come eseguire la [configurazione MLJob automatica. ](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html#sagemaker-Type-AutoMLJobConfig-CandidateGenerationConfig)CandidateGenerationConfig[di tipo [Auto MLCandidate GenerationConfig spostato in Auto](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html). MLProblem TypeConfig TabularJobConfig. CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)di tipo [CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html)in V2.

------
#### [ CreateAutoMLJob ]

  ```
  {
     "AutoMLJobConfig": { 
        "CandidateGenerationConfig": { 
           "AlgorithmsConfig": [ 
              { 
                 "AutoMLAlgorithms": [ "string" ]
              }
           ],
           "FeatureSpecificationS3Uri": "string"
        }
  }
  ```

------
#### [ CreateAutoMLJobV2 ]

  ```
  {
      "AutoMLProblemTypeConfig": {
          "TabularJobConfig": {
              "CandidateGenerationConfig": { 
                  "AlgorithmsConfig": [ 
                      { 
                      "AutoMLAlgorithms": [ "string" ]
                      }
                  ],
              },
          }
      },
  }
  ```

------
+ **Richiedi gli attributi che hanno cambiato nome e struttura.**

  Il seguente codice JSON illustra come [InputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-InputDataConfig)(An array of [AutoMLChannel) sia cambiato in Auto](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html) MLJob InputDataConfig (An array of [Auto MLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig) [Channel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)) in V2. Nota che gli attributi `SampleWeightAttributeName` e `TargetAttributeName` vengono spostati da `InputDataConfig` e verso `AutoMLProblemTypeConfig`.

------
#### [ CreateAutoMLJob ]

  ```
  {    
      "InputDataConfig": [ 
          { 
              "ChannelType": "string",
              "CompressionType": "string",
              "ContentType": "string",
              "DataSource": { 
                  "S3DataSource": { 
                      "S3DataType": "string",
                      "S3Uri": "string"
                  }
              },
              "SampleWeightAttributeName": "string",
              "TargetAttributeName": "string"
          }
      ]
  }
  ```

------
#### [ CreateAutoMLJobV2 ]

  ```
  {    
      "AutoMLJobInputDataConfig": [ 
          { 
              "ChannelType": "string",
              "CompressionType": "string",
              "ContentType": "string",
              "DataSource": { 
                  "S3DataSource": { 
                      "S3DataType": "string",
                      "S3Uri": "string"
                  }
              }
          }
      ]
  }
  ```

------

# Set di dati Autopilot e tipi di problemi
<a name="autopilot-datasets-problem-types"></a>

Per i dati tabulari (ovvero i dati in cui ogni colonna contiene una funzionalità con un tipo di dati specifico e ogni riga contiene un'osservazione), Autopilot offre la possibilità di specificare il tipo di problema di apprendimento supervisionato disponibile per i candidati modello del processo AutoML, come la classificazione binaria o la regressione o di rilevarlo per conto dell'utente in base ai dati forniti. Autopilot supporta anche diversi formati e tipi di dati.

**Topics**
+ [Set di dati Autopilot, tipi di dati e formati](#autopilot-datasets)
+ [Tipi di problemi di Autopilot](#autopilot-problem-types)

## Set di dati Autopilot, tipi di dati e formati
<a name="autopilot-datasets"></a>

Autopilot supporta dati tabulari formattati come file CSV o file Parquet: ogni colonna contiene una funzionalità con un tipo di dati specifico e ogni riga contiene un'osservazione. Le proprietà di questi due formati di file differiscono notevolmente.
+ **CSV** (comma-separated-values) è un formato di file basato su righe che archivia i dati in testo semplice leggibile dall'uomo, una scelta popolare per lo scambio di dati in quanto sono supportati da un'ampia gamma di applicazioni.
+ **Parquet** è un formato di file basato su colonne in cui i dati vengono archiviati ed elaborati in modo più efficiente rispetto ai formati di file basati su righe. Ciò li rende un'opzione migliore per i problemi relativi ai big data.

I **tipi di dati** accettati per le colonne includono serie numeriche, categoriche, testuali e temporali costituite da stringhe di numeri separati da virgole. Se Autopilot rileva di avere a che fare con sequenze di **serie temporali**, le elabora tramite trasformatori di funzionalità specializzate forniti dalla libreria [tsfresh](https://tsfresh.readthedocs.io/en/latest/text/list_of_features.html). Questa libreria prende le serie temporali come input e genera una funzionalità come il valore assoluto più alto delle serie temporali o le statistiche descrittive sull'autocorrelazione. Queste funzionalità emesse vengono quindi utilizzate come input per uno dei tre tipi di problemi.

Autopilot supporta la creazione di modelli di apprendimento automatico su set di dati di grandi dimensioni fino a centinaia di. GBs Per i dettagli sui limiti di risorse predefiniti per i set di dati di input e su come aumentarli, consulta [Quote di Autopilot](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-quotas.html).

## Tipi di problemi di Autopilot
<a name="autopilot-problem-types"></a>

Per i dati tabulari, si specifica ulteriormente il tipo di problemi di apprendimento supervisionato disponibili per i candidati modello come segue:

### Regressione
<a name="autopilot-automate-model-development-problem-types-regression"></a>

La regressione stima i valori di una variabile target dipendente in base a una o più variabili o attributi correlati con essa. Un esempio è la previsione dei prezzi delle case utilizzando caratteristiche come il numero di bagni e camere da letto, metratura della casa e del giardino. L'analisi di regressione può creare un modello che accetta una o più di queste caratteristiche come input e prevede il prezzo di una casa.

### Classificazione binaria
<a name="autopilot-automate-model-development-problem-types-binary-classification"></a>

La classificazione binaria è un tipo di apprendimento supervisionato che assegna un individuo a una delle due classi predefinite e reciprocamente esclusive in base ai loro attributi. È supervisionato perché i modelli sono addestrati utilizzando esempi in cui gli attributi sono forniti con oggetti etichettati correttamente. Una diagnosi medica per capire se un individuo ha una malattia o meno basata sui risultati dei test diagnostici è un esempio di classificazione binaria.

### Classificazione multiclasse
<a name="autopilot-automate-model-development-problem-types-multiclass-classification"></a>

La classificazione multiclasse è un tipo di apprendimento supervisionato che assegna un individuo a una delle diverse classi in base ai loro attributi. È supervisionato perché i modelli sono addestrati utilizzando esempi in cui gli attributi sono forniti con oggetti etichettati correttamente. Un esempio è la previsione dell'argomento più rilevante per un documento di testo. Un documento può essere classificato come, per esempio, religione o politica o finanza, o in una delle molte altre classi tematiche predefinite.

# Modalità di addestramento e supporto degli algoritmi
<a name="autopilot-model-support-validation"></a>

Autopilot supporta diverse modalità e algoritmi di addestramento per risolvere i problemi di machine learning, generare report su parametri oggettivi e di qualità e utilizzare automaticamente la convalida incrociata, quando necessario.

## Modalità di addestramento
<a name="autopilot-training-mode"></a>

SageMaker Autopilot può selezionare automaticamente il metodo di allenamento in base alla dimensione del set di dati oppure è possibile selezionarlo manualmente. Sono disponibili le opzioni seguenti:
+ **Ensembling**: Autopilot utilizza la libreria per addestrare diversi modelli di base. [AutoGluon](https://auto.gluon.ai/scoredebugweight/tutorials/tabular_prediction/index.html) Per trovare la combinazione migliore per il tuo set di dati, la modalità raggruppamento esegue 10 prove con diverse impostazioni di modelli e metaparametri. Quindi Autopilot combina questi modelli utilizzando un metodo di sovrapposizione per creare un modello predittivo ottimale. Per un elenco degli algoritmi supportati da Autopilot in modalità raggruppamento per dati tabulari, consulta la seguente sezione relativa al **Supporto degli algoritmi**.
+ **Ottimizzazione iperparametrica (HPO)**: Autopilot trova la versione migliore di un modello regolando gli iperparametri utilizzando l'ottimizzazione bayesiana o l'ottimizzazione multi-fidelity durante l'esecuzione di processi di addestramento sul set di dati. La modalità HPO seleziona gli algoritmi più pertinenti al set di dati e seleziona la migliore gamma di iperparametri per ottimizzare i modelli. Per ottimizzare i modelli, la modalità HPO esegue fino a 100 prove (impostazione predefinita) per trovare le impostazioni ottimali degli iperparametri all'interno dell'intervallo selezionato. Se la dimensione del set di dati è inferiore a 100 MB, Autopilot utilizza l'ottimizzazione bayesiana. Autopilot sceglie l'ottimizzazione multi-fidelity se il set di dati è più grande di 100 MB.

  Nell'ottimizzazione multifidelity, i parametri vengono emessi continuamente dai container di addestramento. Una prova con scarse prestazioni rispetto a un parametro oggettivo selezionato viene interrotto in anticipo. A una versione di prova che sta dando buoni risultati vengono assegnate più risorse. 

  **Per un elenco degli algoritmi supportati da Autopilot in modalità HPO, consulta la seguente sezione relativa al supporto degli algoritmi.** 
+ **Auto**: Autopilot sceglie automaticamente la modalità raggruppamento o la modalità HPO in base alle dimensioni del set di dati. Se il set di dati è più grande di 100 MB, Autopilot sceglie HPO. Altrimenti, esso sceglie la modalità raggruppamento. Autopilot può non riuscire a leggere la dimensione del set di dati nei seguenti casi.
  + Se abiliti la modalità cloud privato virtuale (VPC), per un processo AutoML, ma il bucket S3 contenente il set di dati consente l'accesso solo dal VPC.
  + L'input [S3](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLS3DataSource.html#sagemaker-Type-AutoMLS3DataSource-S3DataType) del tuo set DataType di dati è un. `ManifestFile`
  + L'input [S3Uri](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLS3DataSource.html#sagemaker-Type-AutoMLS3DataSource-S3Uri) contiene più di 1000 elementi.

  Se Autopilot non è in grado di leggere la dimensione del set di dati, per impostazione predefinita sceglie la modalità HPO.

**Nota**  
Per un runtime e prestazioni ottimali, utilizza la modalità addestramento raggruppamento per set di dati di dimensioni inferiori a 100 MB.

## Supporto degli algoritmi
<a name="autopilot-algorithm-support"></a>

In **HPO mode**, Autopilot supporta i seguenti tipi di algoritmi di machine learning:
+  [Linear learner](https://docs.aws.amazon.com/sagemaker/latest/dg/linear-learner.html): un algoritmo di apprendimento supervisionato in grado di risolvere problemi di classificazione o regressione.
+ [XGBoost](https://docs.aws.amazon.com/sagemaker/latest/dg/xgboost.html)— Un algoritmo di apprendimento supervisionato che tenta di prevedere con precisione una variabile target combinando un insieme di stime tratte da una serie di modelli più semplici e più deboli.
+ Deep learning algorithm (Algoritmo deep learning): un perceptron multistrato (MLP) e una rete neurale artificiale feedforward. Questo algoritmo è in grado di gestire dati che non sono separabili linearmente.

**Nota**  
Non è necessario specificare un algoritmo da utilizzare per il problema del Machine learning. Autopilot seleziona automaticamente l'algoritmo appropriato da addestrare. 

In **ensembling mode** (modalità raggruppamento), Autopilot supporta i seguenti tipi di algoritmi di machine learning:
+ [LightGBM](https://docs.aws.amazon.com/sagemaker/latest/dg/lightgbm.html): un framework ottimizzato che utilizza algoritmi ad albero con aumento del gradiente. Questo algoritmo utilizza alberi che crescono in larghezza anziché in profondità ed è altamente ottimizzato per la velocità.
+ [CatBoost](https://docs.aws.amazon.com/sagemaker/latest/dg/catboost.html)— Un framework che utilizza algoritmi basati su alberi con aumento del gradiente. Ottimizzato per la gestione di variabili categoriche.
+ [XGBoost](https://docs.aws.amazon.com/sagemaker/latest/dg/xgboost.html)— Un framework che utilizza algoritmi basati su alberi con potenziamento del gradiente che cresce in profondità anziché in larghezza. 
+ [Random Forest](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html): un algoritmo ad albero che utilizza diversi alberi decisionali su sottocampioni casuali di dati con sostituzione. Gli alberi sono suddivisi in nodi ottimali a ciascun livello. Le decisioni di ogni albero vengono calcolate insieme per evitare un sovradimensionamento e migliorare le previsioni.
+ [Extra Trees](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.ExtraTreesClassifier.html#sklearn.ensemble.ExtraTreesClassifier): un algoritmo ad albero che utilizza diversi alberi decisionali sull'intero set di dati. Gli alberi vengono suddivisi casualmente ad ogni livello. Le decisioni di ogni albero vengono calcolate per evitare un sovradimensionamento e per migliorare le previsioni. Gli alberi aggiuntivi aggiungono un grado di randomizzazione rispetto all'algoritmo della foresta casuale.
+ [Linear Models](https://scikit-learn.org/stable/modules/classes.html#module-sklearn.linear_model): un framework che utilizza un'equazione lineare per modellare la relazione tra due variabili nei dati osservati.
+ Neural network torch: un modello di rete neurale implementato utilizzando [Pytorch](https://pytorch.org/).
+ Neural network fast.ai: un modello di rete neurale implementato utilizzando [fast.ai](https://www.fast.ai/).

# Parametri e convalida
<a name="autopilot-metrics-validation"></a>

Questa guida mostra i parametri e le tecniche di convalida che è possibile utilizzare per misurare le prestazioni dei modelli di machine learning. Amazon SageMaker Autopilot produce metriche che misurano la qualità predittiva dei modelli di apprendimento automatico candidati. Le metriche calcolate per i candidati vengono specificate utilizzando una serie di tipi. [MetricDatum](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html)

## Parametri Autopilot
<a name="autopilot-metrics"></a>

L'elenco seguente contiene i nomi dei parametri attualmente disponibili per misurare le prestazioni dei modelli in Autopilot.

**Nota**  
Autopilot supporta i pesi dei campioni. Per ulteriori informazioni sui pesi dei campioni e sui parametri obiettivo disponibili, consulta [Parametri ponderati per Autopilot](#autopilot-weighted-metrics).

I parametri disponibili sono i seguenti.

**`Accuracy`**  
 Il rapporto tra il numero di elementi classificati correttamente e il numero totale di elementi classificati (correttamente e erroneamente). Viene utilizzato sia per la classificazione binaria che multiclasse. La precisione misura quanto i valori delle classi previsti si avvicinano ai valori effettivi. I valori per i parametri di precisione variano tra zero (0) e uno (1). Un valore pari a 1 indica una perfetta precisione e 0 indica una perfetta imprecisione.

**`AUC`**  
 Il parametro dell'area sotto la curva (AUC) viene utilizzato per confrontare e valutare la classificazione binaria mediante algoritmi che restituiscono probabilità, come la regressione logistica. Per mappare le probabilità in classificazioni, queste vengono confrontate con un valore soglia.   
La curva rilevante è la curva ROC (Receiver Operating Characteristic). La curva traccia la percentuale di veri positivi (True Positive Rate, TPR) delle previsioni (o recupero) rispetto alla percentuale di falsi positivi (False Positive Rate, FPR) in funzione del valore soglia, al di sopra del quale una previsione è considerata positiva. L’aumento della soglia comporta un minor numero di falsi positivi, ma più falsi negativi.   
L’AUC è l’area sotto questa curva ROC. Pertanto, l’AUC fornisce una misura aggregata delle prestazioni del modello attraverso tutte le possibili soglie di classificazione. I punteggi AUC variano tra 0 e 1. Un punteggio di 1 indica una precisione perfetta, mentre un punteggio pari alla metà (0,5) indica che la previsione non è migliore di un classificatore casuale. 

**`BalancedAccuracy`**  
`BalancedAccuracy` è un parametro che misura il rapporto tra previsioni accurate e tutte le previsioni. Questo rapporto viene calcolato dopo aver normalizzato i veri positivi (TP) e i veri negativi (TN) in base al numero totale di valori positivi (P) e negativi (N). Viene utilizzata sia nella classificazione binaria che in quella multiclasse ed è definita come segue: 0,5\$1 ((TP/P)\$1(TN/N)), con valori compresi tra 0 e 1. `BalancedAccuracy`offre una migliore misura di precisione quando il numero di aspetti positivi o negativi differisce notevolmente l'uno dall'altro in un set di dati squilibrato, ad esempio quando solo l'1% dei messaggi di posta elettronica è spam. 

**`F1`**  
Il punteggio `F1` è la media armonica della precisione e del recupero, definita come segue: F1 = 2 \$1 (precisione\$1 recupero)/(precisione \$1 recupero). Viene utilizzato per la classificazione binaria in classi tradizionalmente denominate positive e negative. Si dice che le previsioni siano vere quando corrispondono alla loro classe effettiva (corretta) e false quando non lo sono.   
La precisione è il rapporto tra le previsioni vere positive e tutte le previsioni positive e include i falsi positivi in un set di dati. La precisione misura la qualità della previsione quando prevede la classe positiva.   
Il recupero (o sensibilità) è il rapporto tra le previsioni vere positive e tutte le istanze positive effettive. Il recupero misura la completezza con cui un modello prevede gli effettivi membri della classe in un set di dati.   
I punteggi di F1 variano tra 0 e 1. Un punteggio pari a 1 indica la migliore prestazione possibile, mentre 0 indica la peggiore.

**`F1macro`**  
Il punteggio `F1macro` applica il punteggio F1 ai problemi di classificazione multiclasse. A tale scopo, calcola la precisione e il recupero, quindi utilizza la media armonica per calcolare il punteggio F1 per ogni classe. Infine, calcola la media `F1macro` dei punteggi individuali per ottenere il punteggio. `F1macro`. I punteggi `F1macro` variano tra 0 e 1. Un punteggio pari a 1 indica la migliore prestazione possibile, mentre 0 indica la peggiore.

**`InferenceLatency`**  
La latenza di inferenza è il periodo di tempo approssimativo che intercorre tra l'invio di una richiesta di previsione del modello e la sua ricezione da un endpoint in tempo reale su cui viene distribuito il modello. Questo parametro viene misurato in secondi ed è disponibile solo in modalità ensembling.

**`LogLoss`**  
La perdita di log, nota anche come perdita di entropia incrociata, è un parametro utilizzato per valutare la qualità degli output di probabilità, anziché gli output stessi. Viene utilizzato sia nella classificazione binaria che multiclasse e nelle reti neurali. È anche la funzione di costo per la regressione logistica. La perdita di log è un parametro importante per indicare quando un modello effettua previsioni errate con probabilità elevate. I valori tipici sono compresi tra 0 e infinito. Il valore 0 rappresenta un modello che prevede perfettamente i dati.

**`MAE`**  
La media degli errori assoluti (Mean Absolute Error, MAE) è una misura della differenza tra i valori previsti e quelli effettivi, quando viene calcolata la media di tutti i valori. La MAE è comunemente usata nell’analisi di regressione per comprendere l’errore di previsione del modello. In caso di regressione lineare, la MAE rappresenta la distanza media tra una linea prevista e il valore effettivo. La MAE è definita come la somma degli errori assoluti divisa per il numero di osservazioni. I valori sono compresi tra 0 e infinito, con numeri più piccoli che indicano una migliore adattabilità del modello ai dati.

**`MSE`**  
L'errore quadratico medio (Mean Squared Error, MSE) è la media delle differenze quadratiche tra i valori previsti e quelli effettivi. Viene utilizzato per la regressione. I valori MSE sono sempre positivi. Quanto più un modello è in grado di prevedere i valori effettivi, tanto più piccolo è il valore MSE.

**`Precision`**  
La precisione misura la capacità di un algoritmo di prevedere i veri positivi (TP) tra tutti i positivi che identifica. È definita come segue: Precisione = TP/ (TP\$1FP), con valori compresi tra zero (0) e uno (1), e viene utilizzata nella classificazione binaria. La precisione è un parametro importante quando il costo di un falso positivo è elevato. Ad esempio, il costo di un falso positivo è molto elevato se un sistema di sicurezza aereo viene erroneamente considerato sicuro da pilotare. Un falso positivo (FP) riflette una previsione positiva che in realtà è negativa nei dati.

**`PrecisionMacro`**  
La macro di precisione calcola la precisione per i problemi di classificazione multiclasse. A tale scopo, calcola la precisione per ogni classe e calcola la media dei punteggi per ottenere la precisione per diverse classi. I punteggi `PrecisionMacro` sono compresi tra zero (0) e uno (1). I punteggi più alti riflettono la capacità del modello di prevedere i veri positivi (TP) tra tutti i positivi che identifica, calcolando la media tra più classi.

**`R2`**  
R 2, noto anche come coefficiente di determinazione, viene utilizzato nella regressione per quantificare in che misura un modello può spiegare la varianza di una variabile dipendente. I valori sono compresi tra uno (1) e meno uno (-1). I numeri più alti indicano una frazione più alta della variabilità spiegata. I valori `R2` vicini allo zero (0) indicano che il modello può spiegare una minima parte della variabile dipendente. I valori negativi indicano un adattamento inadeguato e che il modello è superato da una funzione costante. Per la regressione lineare, questa è una linea orizzontale.

**`Recall`**  
Il recupero misura la capacità di un algoritmo di prevedere correttamente tutti i veri positivi (TP) in un set di dati. Un vero positivo è una previsione positiva che è anche un valore positivo effettivo dei dati. Il recupero è definito come segue: Recupero = TP/ (TP\$1FN), con valori compresi tra 0 e 1. I punteggi più alti riflettono una migliore capacità del modello di prevedere i veri positivi (TP) nei dati. Viene utilizzato nella classificazione binaria.   
Il recupero è importante quando si esegue il test per il cancro perché viene utilizzato per individuare tutti i veri aspetti positivi. Un falso negativo (FN) riflette una previsione negativa che in realtà è positiva nei dati. Spesso non è sufficiente misurare solo il recupero, perché prevedendo ogni output come un vero positivo si ottiene un punteggio di recupero perfetto.

**`RecallMacro`**  
La `RecallMacro` calcola il recupero per problemi di classificazione multiclasse calcolando il recupero per ogni classe e calcolando la media dei punteggi per ottenere il recupero per diverse classi. I punteggi `RecallMacro` sono compresi tra 0 e 1. I punteggi più alti riflettono la capacità del modello di prevedere i veri positivi (TP) in un set di dati, mentre un vero positivo riflette una previsione positiva che è anche un valore positivo effettivo nei dati. Spesso non è sufficiente misurare solo il recupero, perché prevedendo ogni output come un vero positivo si otterrà un punteggio di recupero perfetto.

**`RMSE`**  
L’errore quadratico medio (RMSE) misura la radice quadrata della differenza quadratica tra i valori previsti e quelli effettivi, e viene calcolata la media di tutti i valori. Viene utilizzato nell’analisi di regressione per comprendere l’errore di previsione del modello. È un parametro importante per indicare la presenza di errori e valori anomali di un modello di grandi dimensioni. I valori sono compresi tra zero (0) e infinito, con numeri più piccoli che indicano una migliore adattabilità del modello ai dati. L’RMSE dipende dalla scala e non deve essere utilizzato per confrontare set di dati di dimensioni diverse.

I parametri calcolati automaticamente per un modello candidato sono determinati dal tipo di problema da risolvere.

Consulta la [documentazione di riferimento dell' SageMaker API Amazon](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobObjective.html) per l'elenco delle metriche disponibili supportate da Autopilot.

## Parametri ponderati per Autopilot
<a name="autopilot-weighted-metrics"></a>

**Nota**  
Autopilot supporta i pesi dei campioni solo in modalità ensembling per tutti [i parametri disponibili](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-metrics-validation.html#autopilot-metrics) ad eccezione di `Balanced Accuracy` e `InferenceLatency`. `BalanceAccuracy` è dotato di un proprio schema di ponderazione per set di dati sbilanciati che non richiede pesi di campioni. `InferenceLatency` non supporta i pesi dei campioni. Entrambi i parametri `Balanced Accuracy` e `InferenceLatency` obiettivi ignorano i pesi dei campioni esistenti durante l’addestramento e la valutazione di un modello.

Gli utenti possono aggiungere una colonna di pesi di campioni ai propri dati per garantire che a ogni osservazione utilizzata per addestrare un modello di machine learning venga assegnato un peso corrispondente all'importanza percepita per il modello. Ciò è particolarmente utile negli scenari in cui le osservazioni nel set di dati hanno diversi gradi di importanza o in cui un set di dati contiene un numero sproporzionato di campioni di una classe rispetto ad altre. Assegnare un peso a ciascuna osservazione in base alla sua importanza o maggiore importanza per una classe minoritaria può aiutare le prestazioni complessive di un modello o garantire che un modello non sia orientato verso la classe di maggioranza.

Per informazioni su come passare i pesi dei campioni durante la creazione di un esperimento nell’interfaccia utente di Studio, fai riferimento alla *Fase 7* in [Per creare un esperimento Autopilot utilizzando l’interfaccia utente di Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-create-experiment.html). 

Per informazioni su come passare i pesi dei campioni a livello di codice durante la creazione di un esperimento Autopilot utilizzando l'API, fai riferimento a *Come aggiungere pesi di campioni a un processo AutoML* in [Crea un esperimento Autopilot a livello di programmazione](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-create-experiment.html).

## Convalida incrociata in Autopilot
<a name="autopilot-cross-validation"></a>

La convalida incrociata viene utilizzata per ridurre l'overfitting e il bias nella selezione del modello. Viene anche utilizzata per valutare la capacità di un modello di prevedere i valori di un set di dati di convalida invisibile, se il set di dati di convalida proviene dalla stessa popolazione. Questo metodo è particolarmente importante durante l'addestramento su set di dati che hanno un numero limitato di istanze di addestramento. 

Autopilot utilizza la convalida incrociata per creare modelli in modalità di ottimizzazione degli iperparametri (HPO) e addestramento di ensembling. La prima fase del processo di convalida incrociata di Autopilot consiste nel suddividere i dati in k-fold.

### Suddivisione in k-fold
<a name="autopilot-cross-validation-kfold"></a>

La suddivisione in k-fold è un metodo che separa un set di dati di addestramento in input in più set di dati di addestramento e convalida. Il set di dati è suddiviso in `k` sottocampioni di uguali dimensioni chiamati fold. I modelli vengono quindi addestrati su `k-1` fold e testati rispetto al fold k° rimanente, che è il set di dati di convalida. Il processo viene ripetuto `k` volte utilizzando un set di dati diverso per la convalida. 

L'immagine seguente mostra la suddivisione k-fold con k = 4 fold. Ogni fold è rappresentato come una riga. Le caselle di colore scuro rappresentano le parti dei dati utilizzate nell'addestramento. Le restanti caselle di colore chiaro indicano i set di dati di convalida. 

![\[Suddivisione in k-fold con 4 fold rappresentati come caselle: scure per i dati utilizzati; chiare per i set di dati di convalida.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-metrics-kfold-splits.png)


Autopilot utilizza la convalida incrociata k-fold sia per la modalità di ottimizzazione degli iperparametri (hyperparameter optimization, HPO) che per la modalità ensembling.

Puoi implementare modelli Autopilot creati utilizzando la convalida incrociata come faresti con qualsiasi altro modello Autopilot o AI. SageMaker 

### Modalità HPO
<a name="autopilot-cross-validation-hpo"></a>

La convalida incrociata k-fold utilizza il metodo di suddivisione k-fold per la convalida incrociata. In modalità HPO, Autopilot implementa automaticamente la convalida incrociata k-fold per piccoli set di dati con al massimo 50.000 istanze di addestramento. L’esecuzione della convalida incrociata è particolarmente importante quando si esegue l'addestramento su set di dati di piccole dimensioni perché protegge dall'overfit e dal bias nella selezione. 

La modalità HPO utilizza un valore *k* pari a 5 su ciascuno degli algoritmi candidati utilizzati per modellare il set di dati. Vengono addestrati più modelli su diverse suddivisioni e i modelli vengono archiviati separatamente. Una volta completato l’addestramento, viene calcolata la media dei parametri di convalida per ciascuno dei modelli per produrre un unico parametro di stima. Infine, Autopilot combina i modelli della versione di prova con il migliore parametro di convalida in un modello di ensembling. Autopilot utilizza questo modello di ensembling per fare previsioni.

Il parametro di convalida per i modelli addestrati da Autopilot viene presentato come parametro obiettivo nella classifica dei modelli. Autopilot utilizza il parametro di convalida predefinito per ogni tipo di problema che gestisce, a meno che non venga specificato diversamente. Per un elenco di tutti i parametri utilizzati da Autopilot, consulta [Parametri Autopilot](#autopilot-metrics).

Ad esempio, il [set di dati Patrimonio immobiliare di Boston](http://lib.stat.cmu.edu/datasets/boston) contiene solo 861 campioni. Se si crea un modello per prevedere i prezzi di vendita delle abitazioni utilizzando questo set di dati senza convalida incrociata, si rischia di eseguire un addestramento su un set di dati che non è rappresentativo del patrimonio immobiliare di Boston. Se si suddividono i dati una sola volta in sottoinsiemi di addestramento e convalida, il fold di addestramento può contenere solo dati provenienti principalmente dalle periferie. Di conseguenza, l’addestramento dovrà essere eseguito sui dati non rappresentativi del resto della città. In questo esempio, è probabile che il modello si adatti eccessivamente a questa selezione distorta. La convalida incrociata k-fold può ridurre il rischio di questo tipo di errore utilizzando in modo completo e casuale i dati disponibili sia per l’addestramento che per la convalida.

La convalida incrociata può aumentare i tempi di addestramento del 20% in media. I tempi di addestramento possono inoltre aumentare in modo significativo per set di dati complessi.

**Nota**  
In modalità HPO, puoi visualizzare le metriche di formazione e convalida di ogni riquadro nei tuoi log. `/aws/sagemaker/TrainingJobs` CloudWatch Per ulteriori informazioni sui CloudWatch registri, consulta. [CloudWatch Registri per Amazon SageMaker AI](logging-cloudwatch.md) 

### Modalità ensembling
<a name="autopilot-cross-validation-ensemble"></a>

**Nota**  
Autopilot supporta i pesi dei campioni in modalità ensembling. Per l'elenco dei parametri disponibili che supportano i pesi dei campioni, consulta [Parametri Autopilot](#autopilot-metrics).

In modalità ensembling, la convalida incrociata viene eseguita indipendentemente dalla dimensione del set di dati. I clienti possono fornire il proprio set di dati di convalida e il rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati in un rapporto di suddivisione dell'80-20%. I dati di addestramento vengono quindi suddivisi in `k` -fold per la convalida incrociata, dove il valore di `k` è determinato dal motore. AutoGluon Un ensemble è costituito da più modelli di machine learning, in cui ogni modello è noto come modello base. Un singolo modello di base viene addestrato sulle pieghe (`k`-1) e fa out-of-fold previsioni sulla piega rimanente. Questo processo viene ripetuto per tutte le `k` pieghe e le previsioni out-of-fold (OOF) vengono concatenate per formare un unico set di previsioni. Tutti i modelli base dell'ensemble seguono lo stesso processo di generazione delle previsioni OOF.

L'immagine seguente mostra la convalida k-fold con `k` = 4 fold. Ogni fold è rappresentato come una riga. Le caselle di colore scuro rappresentano le parti dei dati utilizzate nell'addestramento. Le restanti caselle di colore chiaro indicano i set di dati di convalida. 

Nella parte superiore dell'immagine, in ogni fold, il primo modello di base effettua previsioni sul set di dati di convalida dopo l'addestramento sui set di dati di addestramento. A ogni fold successivo, i set di dati cambiano ruolo. Un set di dati precedentemente utilizzato per l’addestramento viene ora utilizzato per la convalida, e ciò vale anche al contrario. Alla fine delle `k` pieghe, tutte le previsioni vengono concatenate per formare un unico insieme di previsioni chiamato previsione (OOF). out-of-fold Questo processo viene ripetuto per ogni `n` modelli base.

![\[Convalida k-fold: quattro file di caselle rappresentano 4 fold che generano una riga di previsioni OOF.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-metrics-kfold.PNG)


Le previsioni OOF per ogni modello base vengono quindi utilizzate come funzionalità per addestrare un modello di impilamento. Il modello di impilamento apprende i pesi di importanza per ogni modello base. Questi pesi vengono utilizzati per combinare le previsioni OOF per formare la previsione finale. Le prestazioni del set di dati di convalida determinano quale modello base o di impilamento è il migliore e questo modello viene restituito come modello finale.

In modalità ensemble, puoi fornire il tuo set di dati di convalida o lasciare che Autopilot suddivida automaticamente il set di dati di input in set di dati di addestramento all'80% e di convalida al 20%. I dati di addestramento vengono quindi suddivisi in `k`-fold per la convalida incrociata e producono una previsione OOF e un modello base per ogni fold.

Queste previsioni OOF vengono utilizzate come funzionalità per addestrare un modello di impilamento, che apprende simultaneamente i pesi per ogni modello base. Questi pesi vengono utilizzati per combinare le previsioni OOF per formare la previsione finale. I set di dati di convalida per ogni fold vengono utilizzati per l’ottimizzazione degli iperparametri di tutti i modelli base e del modello di impilamento. Le prestazioni del set di dati di convalida determinano quale modello base o di impilamento è il migliore e questo modello viene restituito come modello finale.

# Implementazione e previsione del modello Autopilot
<a name="autopilot-deploy-models"></a>

Questa guida di Amazon SageMaker Autopilot include i passaggi per la distribuzione del modello, l'impostazione dell'inferenza in tempo reale e l'esecuzione dell'inferenza con processi in batch. 

Dopo la creazione e il l’addestramento del modello, puoi implementarlo per ottenere previsioni in uno dei seguenti due modi:

1. Utilizza [Implementazione di modelli per l’inferenza in tempo reale](autopilot-deploy-models-realtime.md) per configurare un endpoint e ottenere previsioni in modo interattivo. L’inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza.

1. Utilizza [Eseguire processi di inferenza in batch](autopilot-deploy-models-batch.md) per fare previsioni in parallelo su batch di osservazioni su un intero set di dati. L’inferenza in batch è una buona opzione per set di dati di grandi dimensioni o se non è necessaria una risposta immediata a una richiesta di previsione del modello.

**Nota**  
Per evitare di incorrere in costi inutili: dopo che gli endpoint e le risorse che sono state create dall’implementazione del modello non sono più necessari, puoi eliminarli. Per informazioni sui prezzi delle istanze per regione, consulta la pagina [ SageMaker dei prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing/).

# Implementazione di modelli per l’inferenza in tempo reale
<a name="autopilot-deploy-models-realtime"></a>

L'inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza. Questa sezione mostra come utilizzare l'inferenza in tempo reale per ottenere previsioni in modo interattivo dal modello.

Per implementare il modello che ha prodotto il miglior parametro di convalida in un esperimento Autopilot, sono disponibili diverse opzioni. Ad esempio, quando utilizzi Autopilot in SageMaker Studio Classic, puoi distribuire il modello automaticamente o manualmente. È inoltre possibile utilizzarlo per distribuire manualmente SageMaker APIs un modello Autopilot. 

Le schede seguenti mostrano tre opzioni per l’implementazione del modello. Queste istruzioni presuppongono che tu abbia già creato un modello in Autopilot. Se non disponi di un modello, consulta [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md). Per vedere degli esempi relativi a ciascuna opzione, apri ogni scheda.

## Esegui l’implementazione utilizzando l'interfaccia utente (UI) Autopilot
<a name="autopilot-deploy-models-realtime-ui"></a>

L'interfaccia utente di Autopilot contiene utili menu a discesa, interruttori, suggerimenti e altro per aiutarti a navigare nell’implementazione del modello. È possibile eseguire l’implementazione utilizzando una delle procedure seguenti: Automatica o Manuale.
+ **Distribuzione automatica**: per implementare automaticamente il modello migliore da un esperimento Autopilot a un endpoint

  1. [Crea un esperimento in Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-create-experiment.html). SageMaker 

  1. Imposta il valore **Distribuzione automatica** su **Sì**.
**Nota**  
**La distribuzione automatica fallirà se la quota di risorse predefinita o la quota clienti per le istanze di endpoint in una Regione è troppo limitata.** In modalità di ottimizzazione iperparametrica (HPO), è necessario disporre di almeno due istanze ml.m5.2xlarge. In modalità ensembling, è necessario disporre di almeno un'istanza ml.m5.12xlarge. Se riscontri un errore relativo alle quote, puoi [richiedere un aumento del limite di servizio](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) per le istanze di endpoint SageMaker AI.
+ **Distrubuzione manuale**: per implementare manualmente il modello migliore da un esperimento Autopilot a un endpoint

  1. [Crea un esperimento in SageMaker Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-create-experiment.html). 

  1. Imposta il valore **Distribuzione automatica** su **No**. 

  1. Seleziona il modello che desideri implementare in **Nome modello**.

  1. Seleziona il pulsante arancione **Implementazione e impostazioni avanzate** situato a destra della classifica. Si aprirà una nuova scheda.

  1. Configura il nome dell'endpoint, il tipo di istanza e altre informazioni opzionali.

  1.  Seleziona il **modello di distribuzione** arancione da implementare su un endpoint.

  1. Controlla lo stato di avanzamento del processo di creazione degli endpoint [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/)accedendo alla sezione Endpoints. Questa sezione si trova nel menu a discesa **Inferenza** nel pannello di navigazione. 

  1. Dopo che lo stato dell'endpoint cambia da **Creazione** a **InService**, come mostrato di seguito, torna a Studio Classic e richiama l'endpoint.  
![\[SageMaker Console AI: pagina Endpoints per creare un endpoint o controllarne lo stato.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-check-progress.PNG)

## Implementa utilizzando SageMaker APIs
<a name="autopilot-deploy-models-api"></a>

Puoi inoltre ottenere inferenze in tempo reale implementando il modello utilizzando **chiamate API**. Questa sezione mostra i cinque passaggi di questo processo utilizzando frammenti di codice AWS Command Line Interface (AWS CLI). 

Per esempi di codice completi per entrambi AWS CLI i comandi e AWS SDK for Python (boto3), apri le schede direttamente seguendo questi passaggi.

1. **Ottieni le definizioni dei candidati**

   Ottieni le definizioni dei contenitori candidati da. [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers) Queste definizioni candidate vengono utilizzate per creare un modello di SageMaker intelligenza artificiale. 

   L'esempio seguente utilizza l'[DescribeAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html)API per ottenere le definizioni dei candidati per il miglior modello candidato. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Elencare i candidati**

   L'esempio seguente utilizza l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i candidati. Il comando seguente AWS CLI è un esempio.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Utilizza le definizioni dei contenitori dei passaggi precedenti per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-model --model-name '<your-custom-model-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint** 

   L'esempio seguente utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-custom-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Creare l'endpoint ** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-custom-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   La seguente struttura di comandi richiama l'endpoint per l'inferenza in tempo reale.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```

Le schede seguenti contengono esempi di codice completi per l’implementazione di un modello con AWS SDK for Python (boto3) o AWS CLI.

------
#### [ AWS SDK for Python (boto3) ]

1. **Ottieni le definizioni di candidati** utilizzando il seguente esempio di codice.

   ```
   import sagemaker 
   import boto3
   
   session = sagemaker.session.Session()
   
   sagemaker_client = boto3.client('sagemaker', region_name='us-west-2')
   job_name = 'test-auto-ml-job'
   
   describe_response = sm_client.describe_auto_ml_job(AutoMLJobName=job_name)
   # extract the best candidate definition from DescribeAutoMLJob response
   best_candidate = describe_response['BestCandidate']
   # extract the InferenceContainers definition from the caandidate definition
   inference_containers = best_candidate['InferenceContainers']
   ```

1. **Crea il modello** utilizzando il seguente esempio di codice.

   ```
   # Create Model
   model_name = 'test-model' 
   sagemaker_role = 'arn:aws:iam:444455556666:role/sagemaker-execution-role'
   create_model_response = sagemaker_client.create_model(
      ModelName = model_name,
      ExecutionRoleArn = sagemaker_role,
      Containers = inference_containers 
   )
   ```

1. **Crea la configurazione dell’endpoint** utilizzando il seguente esempio di codice.

   ```
   endpoint_config_name = 'test-endpoint-config'
                                                           
   instance_type = 'ml.m5.2xlarge' 
   # for all supported instance types, see 
   # https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ProductionVariant.html#sagemaker-Type-ProductionVariant-InstanceType    # Create endpoint config
   
   endpoint_config_response = sagemaker_client.create_endpoint_config(
      EndpointConfigName=endpoint_config_name, 
      ProductionVariants=[
          {
              "VariantName": "variant1",
              "ModelName": model_name, 
              "InstanceType": instance_type,
              "InitialInstanceCount": 1
          }
      ]
   )
   
   print(f"Created EndpointConfig: {endpoint_config_response['EndpointConfigArn']}")
   ```

1. **Crea l'endpoint** e implementa il modello con il seguente esempio di codice.

   ```
   # create endpoint and deploy the model
   endpoint_name = 'test-endpoint'
   create_endpoint_response = sagemaker_client.create_endpoint(
                                               EndpointName=endpoint_name, 
                                               EndpointConfigName=endpoint_config_name)
   print(create_endpoint_response)
   ```

   **Controlla lo stato della creazione dell'endpoint** utilizzando il seguente esempio di codice.

   ```
   # describe endpoint creation status
   status = sagemaker_client.describe_endpoint(EndpointName=endpoint_name)["EndpointStatus"]
   ```

1. **Richiama l'endpoint** per l'inferenza in tempo reale utilizzando la seguente struttura di comandi.

   ```
   # once endpoint status is InService, you can invoke the endpoint for inferencing
   if status == "InService":
     sm_runtime = boto3.Session().client('sagemaker-runtime')
     inference_result = sm_runtime.invoke_endpoint(EndpointName='test-endpoint', ContentType='text/csv', Body='1,2,3,4,class')
   ```

------
#### [ AWS Command Line Interface (AWS CLI) ]

1. **Ottieni le definizioni di candidati** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker describe-auto-ml-job --auto-ml-job-name 'test-automl-job' --region us-west-2
   ```

1. **Crea il modello** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker create-model --model-name 'test-sagemaker-model'
   --containers '[{
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3", amzn-s3-demo-bucket1
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/output/model.tar.gz",
       "Environment": {
           "AUTOML_SPARSE_ENCODE_RECORDIO_PROTOBUF": "1",
           "AUTOML_TRANSFORM_MODE": "feature-transform",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "application/x-recordio-protobuf",
           "SAGEMAKER_PROGRAM": "sagemaker_serve",
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code"
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-xgboost:1.3-1-cpu-py3",
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/output/model.tar.gz",
       "Environment": {
           "MAX_CONTENT_LENGTH": "20971520",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv",
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,probabilities" 
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3", aws-region
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/output/model.tar.gz", 
       "Environment": { 
           "AUTOML_TRANSFORM_MODE": "inverse-label-transform", 
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv", 
           "SAGEMAKER_INFERENCE_INPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,labels,probabilities", 
           "SAGEMAKER_PROGRAM": "sagemaker_serve", 
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code"
       } 
   }]' \
   --execution-role-arn 'arn:aws:iam::1234567890:role/sagemaker-execution-role' \ 
   --region 'us-west-2'
   ```

   Per ulteriori dettagli, consulta [Creazione di un modello](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/sagemaker/create-model.html).

   Il comando `create model` restituirà una risposta nel seguente formato.

   ```
   {
       "ModelArn": "arn:aws:sagemaker:us-west-2:1234567890:model/test-sagemaker-model"
   }
   ```

1. **Crea una configurazione dell’endpoint** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name 'test-endpoint-config' \
   --production-variants '[{"VariantName": "variant1", 
                           "ModelName": "test-sagemaker-model",
                           "InitialInstanceCount": 1,
                           "InstanceType": "ml.m5.2xlarge"
                          }]' \
   --region us-west-2
   ```

   Il comando di configurazione `create endpoint` restituirà una risposta nel seguente formato.

   ```
   {
       "EndpointConfigArn": "arn:aws:sagemaker:us-west-2:1234567890:endpoint-config/test-endpoint-config"
   }
   ```

1. **Crea un endpoint** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker create-endpoint --endpoint-name 'test-endpoint' \    
   --endpoint-config-name 'test-endpoint-config' \                 
   --region us-west-2
   ```

   Il comando `create endpoint` restituirà una risposta nel seguente formato.

   ```
   {
       "EndpointArn": "arn:aws:sagemaker:us-west-2:1234567890:endpoint/test-endpoint"
   }
   ```

   Controlla lo stato di avanzamento dell’implementazione degli endpoint utilizzando il seguente esempio di codice CLI [describe-endpoint](https://docs.aws.amazon.com/cli/latest/reference/sagemaker/describe-endpoint.html).

   ```
   aws sagemaker describe-endpoint --endpoint-name 'test-endpoint' --region us-west-2
   ```

   Il controllo di avanzamento precedente restituirà una risposta nel formato seguente.

   ```
   {
       "EndpointName": "test-endpoint",
       "EndpointArn": "arn:aws:sagemaker:us-west-2:1234567890:endpoint/test-endpoint",
       "EndpointConfigName": "test-endpoint-config",
       "EndpointStatus": "Creating",
       "CreationTime": 1660251167.595,
       "LastModifiedTime": 1660251167.595
   }
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiama l'endpoint** per l'inferenza in tempo reale utilizzando la seguente struttura di comandi.

   ```
   aws sagemaker-runtime invoke-endpoint --endpoint-name 'test-endpoint' \
   --region 'us-west-2' \
   --body '1,51,3.5,1.4,0.2' \
   --content-type 'text/csv' \
   '/tmp/inference_output'
   ```

   Per altre opzioni, consulta [Richiamare un endpoint](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/sagemaker-runtime/invoke-endpoint.html).

------

## Implementa modelli da account diversi
<a name="autopilot-deploy-models-realtime-across-accounts"></a>

Puoi implementare un modello Autopilot da un account diverso da quello originale in cui è stato generato il modello. Per effettuare l’implementazione del modello su più account, questa sezione mostra come effettuare le seguenti operazioni:   Concedi l'autorizzazione ad assumere il ruolo all'account da cui desideri eseguire l’implementazione (l'account di generazione).    Effettua una chiamata a `DescribeAutoMLJob` dall'account di implementazione per ottenere informazioni sul modello.    Concedi i diritti di accesso agli artefatti del modello dall'account di generazione.    

1. **Concedi l'autorizzazione all'account di implementazione** 

   Per assumere il ruolo nell'account di generazione, è necessario concedere l'autorizzazione all'account di implementazione. Ciò consente all'account di implementazione di descrivere i processi Autopilot nell'account di generazione.

   L'esempio seguente utilizza un account di generazione con un'entità `sagemaker-role` attendibile. L'esempio mostra come concedere a un account di distribuzione con l'ID 111122223333 l'autorizzazione ad assumere il ruolo di account generatore.

   ```
   "Statement": [
           {
               "Effect": "Allow",
               "Principal": {
                   "Service": [
                       "sagemaker.amazonaws.com"
                   ],
                   "AWS": [ "111122223333"]
               },
               "Action": "sts:AssumeRole"
           }
   ```

   Il nuovo account con l'ID 111122223333 può ora assumere il ruolo di account di generazione. 

   Successivamente, richiama l'API `DescribeAutoMLJob` dall'account di implementazione per ottenere una descrizione del lavoro creato dall'account di generazione. 

   Il seguente esempio di codice descrive il modello dell'account di implementazione.

   ```
   import sagemaker 
   import boto3
   session = sagemaker.session.Session()
   
   sts_client = boto3.client('sts')
   sts_client.assume_role
   
   role = 'arn:aws:iam::111122223333:role/sagemaker-role'
   role_session_name = "role-session-name"
   _assumed_role = sts_client.assume_role(RoleArn=role, RoleSessionName=role_session_name)
   
   credentials = _assumed_role["Credentials"]
   access_key = credentials["AccessKeyId"]
   secret_key = credentials["SecretAccessKey"]
   session_token = credentials["SessionToken"]
   
   session = boto3.session.Session()
           
   sm_client = session.client('sagemaker', region_name='us-west-2', 
                              aws_access_key_id=access_key,
                               aws_secret_access_key=secret_key,
                               aws_session_token=session_token)
   
   # now you can call describe automl job created in account A 
   
   job_name = "test-job"
   response= sm_client.describe_auto_ml_job(AutoMLJobName=job_name)
   ```

1. **Concedi l'accesso all'account di implementazione** agli artefatti del modello nell'account di generazione.

   L'account di implementazione deve solo accedere agli artefatti del modello nell'account di generazione per implementarlo. Si trovano nell'[S3 OutputPath](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html#sagemaker-Type-AutoMLOutputDataConfig-S3OutputPath) specificato nella chiamata `CreateAutoMLJob` API originale durante la generazione del modello.

   Per consentire all'account di implementazione di accedere agli elementi del modello, scegli una delle seguenti opzioni:

   1. [Concedi l'accesso](https://aws.amazon.com/premiumsupport/knowledge-center/cross-account-access-s3/) a `ModelDataUrl` dall’account di generazione all'account di implementazione.

      Successivamente, devi autorizzare l'account di implementazione ad assumere il ruolo. Esegui le [fasi di inferenza in tempo reale](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-deploy-models.html#autopilot-deploy-models-realtime) per eseguire l’implementazione. 

   1. [Copia gli artefatti del modello](https://aws.amazon.com/premiumsupport/knowledge-center/copy-s3-objects-account/) dall'[S3](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html#sagemaker-Type-AutoMLOutputDataConfig-S3OutputPath) originale dell'account di generazione OutputPath all'account di generazione.

      Per concedere l'accesso agli artefatti del modello, è necessario definire un modello `best_candidate` e riassegnare i container del modello al nuovo account. 

      L'esempio seguente mostra come definire un modello `best_candidate` e riassegnare il `ModelDataUrl`.

      ```
      best_candidate = automl.describe_auto_ml_job()['BestCandidate']
      
      # reassigning ModelDataUrl for best_candidate containers below
      new_model_locations = ['new-container-1-ModelDataUrl', 'new-container-2-ModelDataUrl', 'new-container-3-ModelDataUrl']
      new_model_locations_index = 0
      for container in best_candidate['InferenceContainers']:
          container['ModelDataUrl'] = new_model_locations[new_model_locations_index++]
      ```

      Dopo questa assegnazione dei container, completa le fasi descritte in [Implementa utilizzando SageMaker APIs](#autopilot-deploy-models-api) per l’implementazione.

Per creare un payload in inferenza in tempo reale, consulta l'esempio del notebook per [definire un payload di test](https://aws.amazon.com/getting-started/hands-on/machine-learning-tutorial-automatically-create-models). Per creare il payload da un file CSV e richiamare un endpoint, consulta la sezione **Prevedere con il tuo modello** in [Crea automaticamente un modello di machine learning](https://aws.amazon.com/getting-started/hands-on/create-machine-learning-model-automatically-sagemaker-autopilot/#autopilot-cr-room).

# Eseguire processi di inferenza in batch
<a name="autopilot-deploy-models-batch"></a>

L'inferenza in batch, nota anche come inferenza offline, genera previsioni di modelli su un batch di osservazioni. L'inferenza in batch è una buona opzione per set di dati di grandi dimensioni o se non è necessaria una risposta immediata a una richiesta di previsione del modello. Al contrario, l'inferenza online ([inferenza in tempo reale](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-deploy-models.html#autopilot-deploy-models-realtime)) genera previsioni in tempo reale. È possibile effettuare inferenze in batch da un modello Autopilot utilizzando [SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable/), l'interfaccia utente Autopilot (UI), l'SDK [AWS per](https://aws.amazon.com/sdk-for-python/) Python (boto3) o (). AWS Command Line Interface [AWS CLI](https://docs.aws.amazon.com/cli/)

Le schede seguenti mostrano tre opzioni per la distribuzione del modello: Utilizzo dell'interfaccia utente Autopilot o utilizzo per la distribuzione da account diversi. APIs APIs Queste istruzioni presuppongono che tu abbia già creato un modello in Autopilot. Se non disponi di un modello, consulta [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md). Per vedere degli esempi relativi a ciascuna opzione, apri ogni scheda.

## Implementa un modello utilizzando l'interfaccia utente di Autopilot
<a name="autopilot-deploy-models-batch-ui"></a>

L'interfaccia utente di Autopilot contiene utili menu a discesa, interruttori, suggerimenti e altro per aiutarti a navigare nell’implementazione del modello.

Le fasi seguenti mostrano come implementare un modello da un esperimento Autopilot per le previsioni in batch. 

1. **Accedi a [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/)e seleziona Studio dal pannello di navigazione.**

1. Nel riquadro di navigazione a sinistra, seleziona **Studio**.

1. In **Inizia**, seleziona il dominio in cui desideri avviare l'applicazione Studio. Se il tuo profilo utente appartiene a un solo dominio, non vedi l’opzione per la selezione di un dominio.

1. Seleziona il profilo utente per il quale desideri avviare l’applicazione Studio Classic. Se non è presente alcun profilo utente nel dominio, scegli **Crea un profilo utente**. Per ulteriori informazioni, consulta [Aggiungi profili utente](https://docs.aws.amazon.com/sagemaker/latest/dg/domain-user-profile-add.html).

1. Scegli **Avvia Studio**. Se il profilo utente appartiene a uno spazio condiviso, scegli **Spazi aperti**. 

1. Quando si apre la console SageMaker Studio Classic, scegli il pulsante **Launch SageMaker Studio**.

1. Seleziona **AutoML** dal riquadro di navigazione a sinistra.

1. In **Nome**, seleziona l'esperimento Autopilot corrispondente al modello che desideri implementare. Si aprirà una nuova scheda **PROCESSO AUTOPILOT**.

1. Nella sezione **Nome modello**, seleziona il modello che desideri distribuire.

1. Scegli **Distribuisci modello**. Si aprirà una nuova scheda.

1. Scegli **Crea previsioni in batch** nella parte superiore della pagina.

1. Per la **Configurazione del processo di trasformazione batch**, inserisci il **tipo di istanza**, il **conteggio istanze** e altre informazioni facoltative.

1. Nella sezione **Configurazione dei dati di input**, apri il menu a discesa. 

   1. Per il **tipo di dati S3**, scegli **ManifestFile**o **S3Prefix**.

   1. **Per il **tipo Split**, scegliete **Line**, **RecOrdio **TFRecord****o None.**

   1. Per **Compressione**, scegli **Gzip** o **Nessuno**. 

1. Per **Posizione S3**, inserisci la posizione del bucket Amazon S3 dei dati di input e altre informazioni facoltative.

1. In **Configurazione dei dati di output**, inserisci il bucket S3 per i dati di output e scegli come [assemblare l'output](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformOutput.html#sagemaker-Type-TransformOutput-AssembleWith) del tuo processo. 

   1. Per **Configurazione aggiuntiva (opzionale)**, puoi inserire un tipo MIME e una **Chiave di crittografia S3**.

1. Per il **filtraggio di input/output e l'unione dei dati (facoltativo)**, è necessario immettere un' JSONpath espressione per filtrare i dati di input, unire i dati della sorgente di input con i dati di output e immettere un' JSONpath espressione per filtrare i dati di output. 

   1. [Per esempi per ogni tipo di filtro, consulta l'API. DataProcessing ](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DataProcessing.html#sagemaker-Type-DataProcessing-InputFilter)

1. Per eseguire previsioni in batch sul set di dati di input, seleziona **Crea processo di trasformazione in batch**. Viene visualizzata una nuova scheda **Processi di trasformazione di batch**.

1. Nella scheda **Processi di trasformazione di batch**: individua il nome del tuo processo nella sezione **Stato**. Quindi controlla lo stato di avanzamento del processo. 

## Distribuisci utilizzando SageMaker APIs
<a name="autopilot-deploy-models-batch-steps"></a>

Per utilizzarlo SageMaker APIs per l'inferenza in batch, ci sono tre passaggi:

1. **Ottieni le definizioni dei candidati** 

   Le definizioni candidate di [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers)vengono utilizzate per creare un modello di SageMaker intelligenza artificiale. 

   L'esempio seguente mostra come utilizzare l'[DescribeAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html)API per ottenere le definizioni dei candidati per il miglior modello candidato. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

   Usa l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i candidati. Il comando seguente AWS CLI è un esempio.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API, utilizza le definizioni dei contenitori dei passaggi precedenti. Il comando seguente AWS CLI è un esempio.

   ```
   aws sagemaker create-model --model-name '<your-custom-model-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Crea un processo di trasformazione dell' SageMaker IA** 

   L'esempio seguente crea un processo di trasformazione SageMaker AI con l'[CreateTransformJob](https://docs.aws.amazon.com/cli/latest/reference/sagemaker/create-transform-job.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-transform-job --transform-job-name '<your-custom-transform-job-name>' --model-name '<your-custom-model-name-from-last-step>'\
   --transform-input '{
           "DataSource": {
               "S3DataSource": {
                   "S3DataType": "S3Prefix", 
                   "S3Uri": "<your-input-data>" 
               }
           },
           "ContentType": "text/csv",
           "SplitType": "Line"
       }'\
   --transform-output '{
           "S3OutputPath": "<your-output-path>",
           "AssembleWith": "Line" 
       }'\
   --transform-resources '{
           "InstanceType": "<instance-type>", 
           "InstanceCount": 1
       }' --region '<region>'
   ```

Controlla lo stato di avanzamento del processo di trasformazione utilizzando l'[DescribeTransformJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeTransformJob.html)API. Vedi il AWS CLI comando seguente come esempio.

```
aws sagemaker describe-transform-job --transform-job-name '<your-custom-transform-job-name>' --region <region>
```

Al termine del lavoro, il risultato previsto sarà disponibile in `<your-output-path>`. 

Il nome file di output presenta il formato seguente: `<input_data_file_name>.out`. Ad esempio, se il file di input è `text_x.csv`, il nome di output sarà `text_x.csv.out`.

Le seguenti schede mostrano esempi di codice per SageMaker Python SDK, AWS SDK for Python (boto3) e. AWS CLI

------
#### [ SageMaker Python SDK ]

L'esempio seguente utilizza **[SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable/overview.html)** per fare previsioni in batch.

```
from sagemaker import AutoML

sagemaker_session= sagemaker.session.Session()

job_name = 'test-auto-ml-job' # your autopilot job name
automl = AutoML.attach(auto_ml_job_name=job_name)
output_path = 's3://test-auto-ml-job/output'
input_data = 's3://test-auto-ml-job/test_X.csv'

# call DescribeAutoMLJob API to get the best candidate definition
best_candidate = automl.describe_auto_ml_job()['BestCandidate']
best_candidate_name = best_candidate['CandidateName']

# create model
model = automl.create_model(name=best_candidate_name, 
               candidate=best_candidate)

# create transformer
transformer = model.transformer(instance_count=1, 
    instance_type='ml.m5.2xlarge',
    assemble_with='Line',
    output_path=output_path)

# do batch transform
transformer.transform(data=input_data,
                      split_type='Line',
                       content_type='text/csv',
                       wait=True)
```

------
#### [ AWS SDK for Python (boto3) ]

 L’esempio seguente utilizza **AWS SDK per Python (boto3)** per fare previsioni in batch.

```
import sagemaker 
import boto3

session = sagemaker.session.Session()

sm_client = boto3.client('sagemaker', region_name='us-west-2')
role = 'arn:aws:iam::1234567890:role/sagemaker-execution-role'
output_path = 's3://test-auto-ml-job/output'
input_data = 's3://test-auto-ml-job/test_X.csv'

best_candidate = sm_client.describe_auto_ml_job(AutoMLJobName=job_name)['BestCandidate']
best_candidate_containers = best_candidate['InferenceContainers']
best_candidate_name = best_candidate['CandidateName']

# create model
reponse = sm_client.create_model(
    ModelName = best_candidate_name,
    ExecutionRoleArn = role,
    Containers = best_candidate_containers 
)

# Lauch Transform Job
response = sm_client.create_transform_job(
    TransformJobName=f'{best_candidate_name}-transform-job',
    ModelName=model_name,
    TransformInput={
        'DataSource': {
            'S3DataSource': {
                'S3DataType': 'S3Prefix',
                'S3Uri': input_data
            }
        },
        'ContentType': "text/csv",
        'SplitType': 'Line'
    },
    TransformOutput={
        'S3OutputPath': output_path,
        'AssembleWith': 'Line',
    },
    TransformResources={
        'InstanceType': 'ml.m5.2xlarge',
        'InstanceCount': 1,
    },
)
```

Il processo di inferenza batch restituisce una risposta nel formato seguente.

```
{'TransformJobArn': 'arn:aws:sagemaker:us-west-2:1234567890:transform-job/test-transform-job',
 'ResponseMetadata': {'RequestId': '659f97fc-28c4-440b-b957-a49733f7c2f2',
  'HTTPStatusCode': 200,
  'HTTPHeaders': {'x-amzn-requestid': '659f97fc-28c4-440b-b957-a49733f7c2f2',
   'content-type': 'application/x-amz-json-1.1',
   'content-length': '96',
   'date': 'Thu, 11 Aug 2022 22:23:49 GMT'},
  'RetryAttempts': 0}}
```

------
#### [ AWS Command Line Interface (AWS CLI) ]

1. **Ottieni le definizioni di candidati** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker describe-auto-ml-job --auto-ml-job-name 'test-automl-job' --region us-west-2
   ```

1. **Crea il modello** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker create-model --model-name 'test-sagemaker-model'
   --containers '[{
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3",
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/data-processor-models/test-job1-dpp0-1-e569ff7ad77f4e55a7e549a/output/model.tar.gz",
       "Environment": {
           "AUTOML_SPARSE_ENCODE_RECORDIO_PROTOBUF": "1",
           "AUTOML_TRANSFORM_MODE": "feature-transform",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "application/x-recordio-protobuf",
           "SAGEMAKER_PROGRAM": "sagemaker_serve",
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code"
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-xgboost:1.3-1-cpu-py3",
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/tuning/flicdf10v2-dpp0-xgb/test-job1E9-244-7490a1c0/output/model.tar.gz",
       "Environment": {
           "MAX_CONTENT_LENGTH": "20971520",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv",
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,probabilities" 
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3", 
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/data-processor-models/test-job1-dpp0-1-e569ff7ad77f4e55a7e549a/output/model.tar.gz", 
       "Environment": { 
           "AUTOML_TRANSFORM_MODE": "inverse-label-transform", 
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv", 
           "SAGEMAKER_INFERENCE_INPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,labels,probabilities", 
           "SAGEMAKER_PROGRAM": "sagemaker_serve", 
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code" 
       } 
   }]' \
   --execution-role-arn 'arn:aws:iam::1234567890:role/sagemaker-execution-role' \
   --region 'us-west-2'
   ```

1. **Crea il processo di trasformazione** utilizzando il seguente esempio di codice.

   ```
   aws sagemaker create-transform-job --transform-job-name 'test-tranform-job'\
    --model-name 'test-sagemaker-model'\
   --transform-input '{
           "DataSource": {
               "S3DataSource": {
                   "S3DataType": "S3Prefix",
                   "S3Uri": "s3://amzn-s3-demo-bucket/data.csv"
               }
           },
           "ContentType": "text/csv",
           "SplitType": "Line"
       }'\
   --transform-output '{
           "S3OutputPath": "s3://amzn-s3-demo-bucket/output/",
           "AssembleWith": "Line"
       }'\
   --transform-resources '{
           "InstanceType": "ml.m5.2xlarge",
           "InstanceCount": 1
       }'\
   --region 'us-west-2'
   ```

1. **Controlla l’avanzamento del processo di trasformazione** utilizzando il seguente esempio di codice. 

   ```
   aws sagemaker describe-transform-job --transform-job-name  'test-tranform-job' --region us-west-2
   ```

   Di seguito è riportata la risposta del processo di trasformazione.

   ```
   {
       "TransformJobName": "test-tranform-job",
       "TransformJobArn": "arn:aws:sagemaker:us-west-2:1234567890:transform-job/test-tranform-job",
       "TransformJobStatus": "InProgress",
       "ModelName": "test-model",
       "TransformInput": {
           "DataSource": {
               "S3DataSource": {
                   "S3DataType": "S3Prefix",
                   "S3Uri": "s3://amzn-s3-demo-bucket/data.csv"
               }
           },
           "ContentType": "text/csv",
           "CompressionType": "None",
           "SplitType": "Line"
       },
       "TransformOutput": {
           "S3OutputPath": "s3://amzn-s3-demo-bucket/output/",
           "AssembleWith": "Line",
           "KmsKeyId": ""
       },
       "TransformResources": {
           "InstanceType": "ml.m5.2xlarge",
           "InstanceCount": 1
       },
       "CreationTime": 1662495635.679,
       "TransformStartTime": 1662495847.496,
       "DataProcessing": {
           "InputFilter": "$",
           "OutputFilter": "$",
           "JoinSource": "None"
       }
   }
   ```

   Dopo che `TransformJobStatus` cambia in `Completed`, puoi controllare il risultato dell'inferenza in `S3OutputPath`.

------

## Implementa modelli da account diversi
<a name="autopilot-deploy-models-batch-across-accounts"></a>

Per creare un processo di inferenza in batch in un account diverso da quello in cui è stato generato il modello, segui le istruzioni riportate in [Implementa modelli da account diversi](autopilot-deploy-models-realtime.md#autopilot-deploy-models-realtime-across-accounts). Quindi puoi creare modelli e processi di trasformazione seguendo i [Distribuisci utilizzando SageMaker APIs](#autopilot-deploy-models-batch-steps).

# Visualizza i dettagli del modello
<a name="autopilot-models-details"></a>

Autopilot genera dettagli sui modelli candidati che puoi ottenere. Questi dettagli includono quanto segue:
+ Un grafico dei valori SHAP aggregati che indicano l'importanza di ciascuna funzionalità. Questo aiuta a spiegare le previsioni dei modelli.
+ Le statistiche di riepilogo per vari parametri di addestramento e convalida, incluso il parametro obiettivo.
+ Un elenco degli iperparametri utilizzati per addestrare e ottimizzare il modello.

Per visualizzare i dettagli del modello dopo aver eseguito un processo di Autopilot, completa la seguente procedura:

1. Scegli l'icona **Home** (![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/studio/icons/house.png)) dal riquadro di navigazione a sinistra per visualizzare il menu di navigazione **Amazon SageMaker Studio Classic** di primo livello.

1. Seleziona la scheda **AutoML** dall'area di lavoro principale. Si aprirà una nuova scheda **Autopilot.**

1. Nella sezione **Nome**, seleziona il processo di Autopilot contenente i dettagli che desideri esaminare. Si aprirà una nuova scheda **Processo di Autopilot.**

1. Il pannello di **Processo di Autopilot** elenca i valori dei parametri, incluso il parametro **Obiettivo**, per ogni modello in **Nome modello**. Il **Modello migliore** è elencato in cima all'elenco sotto **Nome modello** ed è anche evidenziato nella scheda **Modelli**.

   1. Per esaminare i dettagli del modello, seleziona quello che ti interessa e seleziona **Visualizza dettagli modello**. Si aprirà una nuova scheda **Dettagli del modello**.

1. La scheda **Dettagli del modello** è suddivisa in quattro sottosezioni.

   1. La parte superiore della scheda **Spiegabilità** contiene un grafico di valori SHAP aggregati che indicano l'importanza di ciascuna funzionalità. Di seguito sono riportati i parametri e i valori degli iperparametri per questo modello. 

   1. La scheda **Prestazioni** contiene parametri, statistiche, una matrice di confusione. 

   1. La scheda **Artefatti** contiene informazioni sugli input, gli output e i risultati intermedi del modello.

   1. La scheda **Rete** riassume le scelte di isolamento e crittografia della rete.
**Nota**  
L'importanza delle funzionalità e le informazioni nella scheda **Prestazioni** vengono generate solo per il **Modello migliore**.

   Per ulteriori informazioni su come i valori SHAP aiutano a spiegare le previsioni in base all'importanza delle caratteristiche, consulta il whitepaper [Comprendere la spiegabilità del modello](https://pages.awscloud.com/rs/112-TZM-766/images/Amazon.AI.Fairness.and.Explainability.Whitepaper.pdf). Ulteriori informazioni sono disponibili anche nell'[Spiegabilità del modello](clarify-model-explainability.md)argomento della SageMaker AI Developer Guide. 

# Visualizzare un report sulle prestazioni del modello Autopilot
<a name="autopilot-model-insights"></a>

Un report sulla qualità del modello Amazon SageMaker AI (noto anche come rapporto sulle prestazioni) fornisce approfondimenti e informazioni sulla qualità per il miglior modello candidato generato da un job di AutoML. Ciò include informazioni sui dettagli del processo, sul tipo di problema del modello, sulla funzione dell'obiettivo e altre informazioni relative al tipo di problema. Questa guida mostra come visualizzare graficamente i parametri delle prestazioni di Amazon SageMaker Autopilot o come dati grezzi in un file JSON.

Ad esempio, nei problemi di classificazione, il report sulla qualità del modello include quanto segue:
+ Matrice di confusione
+ Area sotto la curva caratteristica operativa del ricevitore (AUC)
+ Informazioni per comprendere falsi positivi e falsi negativi
+ Compromessi tra veri positivi e falsi positivi
+ Compromessi tra precisione e recupero

Autopilot fornisce anche parametri prestazionali per tutti i modelli candidati. Questi parametri vengono calcolati utilizzando tutti i dati di addestramento e vengono utilizzati per stimare le prestazioni del modello. L'area di lavoro principale include questi parametri per impostazione predefinita. Il tipo di parametro è determinato dal tipo di problema da risolvere.

Consulta la [documentazione di riferimento dell' SageMaker API Amazon](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobObjective.html) per l'elenco delle metriche disponibili supportate da Autopilot.

Puoi ordinare i tuoi modelli candidati in base al parametro pertinente per aiutarti a selezionare e implementare il modello più adatto alle tue esigenze aziendali. Per le definizioni di questi parametri, consulta l'argomento [Parametri dei candidati Autopilot](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-metrics-validation.html#autopilot-metrics).

Per visualizzare un report sulle prestazioni di un processo di Autopilot, completa la seguente procedura:

1. Scegli l'icona **Home** (![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/studio/icons/house.png)) dal riquadro di navigazione a sinistra per visualizzare il menu di navigazione **Amazon SageMaker Studio Classic** di primo livello.

1. Seleziona la scheda **AutoML** dall’area di lavoro principale. Si aprirà una nuova scheda **Autopilot.**

1. Nella sezione **Nome**, seleziona il processo di Autopilot contenente i dettagli che desideri esaminare. Si aprirà una nuova scheda **Processo di Autopilot.**

1. Il pannello di **Processo di Autopilot** elenca i valori dei parametri, incluso il parametro **Obiettivo**, per ogni modello in **Nome modello**. Il **Modello migliore** è elencato in cima all'elenco sotto **Nome modello** ed è evidenziato nella scheda **Modelli**.

   1. Per esaminare i dettagli del modello, seleziona quello che ti interessa e seleziona **Visualizza i dettagli del modello**. Si aprirà una nuova scheda **Dettagli del modello**.

1. Sceglie la scheda **Prestazioni** tra la scheda **Spiegabilità** e **Artefatti**.

   1. Nella sezione in alto a destra della scheda, seleziona la freccia rivolta verso il basso sul pulsante **Scarica i report sulle prestazioni**. 

   1. La freccia rivolta verso il basso offre due opzioni per visualizzare i parametri delle prestazioni di Autopilot:

      1. È possibile scaricare un PDF del report sulle prestazioni per visualizzare i parametri graficamente.

      1. È possibile visualizzare i parametri come dati grezzi e scaricarli come file JSON.

Per istruzioni su come creare ed eseguire un processo AutoML in SageMaker Studio Classic, vedere. [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md) 

Il report sulle prestazioni contiene due sezioni. La prima sezione contiene dettagli sul processo di Autopilot che ha prodotto il modello. La seconda sezione contiene un report sulla qualità del modello.

## Dettagli del processo di Autopilot
<a name="autopilot-model-insights-details-and-metrics-table"></a>

Questa prima sezione del report fornisce alcune informazioni generali sul processo di Autopilot che ha prodotto il modello. Questi dettagli del processo includono le seguenti informazioni:
+ Nome del candidato Autopilot
+ Nome del processo di Autopilot
+ Tipo di problema
+ Parametro obiettivo
+ Direzione dell'ottimizzazione

## Report sulla qualità del modello
<a name="autopilot-model-quality-report"></a>

Le informazioni sulla qualità del modello vengono generate dalle informazioni del modello Autopilot. Il contenuto del report generato dipende dal tipo di problema risolto: regressione, classificazione binaria o classificazione multiclasse. Il report specifica il numero di righe incluse nel set di dati di valutazione e l'ora in cui è avvenuta la valutazione.

### Tabelle di parametri
<a name="autopilot-model-quality-report-metrics"></a>

La prima parte del report sulla qualità del modello contiene le tabelle dei parametri. Questi sono i parametri appropriati per il tipo di problema risolto dal modello.

L'immagine seguente è un esempio di tabella di parametri generata da Autopilot per un problema di regressione. Mostra il nome, il valore e la deviazione standard del parametro.

![\[Esempio di report sulle metriche di regressione di Amazon SageMaker Autopilot Model Insights.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-regression-metrics.png)


L'immagine seguente è un esempio di tabella dei parametri generata da Autopilot per un problema di classificazione di classificazione multiclasse. Mostra il nome, il valore e la deviazione standard del parametro.

![\[Esempio di report sulle metriche di classificazione multiclasse di Amazon SageMaker Autopilot Model Insights.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-multiclass-metrics-report.png)


### Informazioni sulle prestazioni del modello grafico
<a name="autopilot-model-quality-report-graphs"></a>

 La seconda parte del report sulla qualità del modello contiene informazioni grafiche per aiutarti a valutare le prestazioni del modello. Il contenuto di questa sezione dipende dal tipo di problema utilizzato nella modellazione.

#### L'area sotto la curva caratteristica operativa del ricevitore
<a name="autopilot-model-insights-auc-roc"></a>

L'area sotto la curva delle caratteristiche operative del ricevitore rappresenta il compromesso tra valori veri positivi e falsi positivi. È un parametro di precisione standard del settore utilizzato per i modelli di classificazione binaria. L'AUC (area sotto la curva) misura la capacità del modello di prevedere un punteggio più elevato per gli esempi positivi rispetto a quelli negativi. Il parametro AUC fornisce una misura aggregata delle prestazioni del modello in tutte le possibili soglie di classificazione.

Il parametro AUC restituisce un valore decimale compreso tra 0 e 1. I valori di AUC prossimi a 1 indicano che il modello di machine learning è estremamente accurato. I valori vicino a 0,5 indicano che il modello non ha prestazioni migliori di quelle di un'ipotesi casuale. I valori AUC prossimi allo 0 indicano che il modello ha appreso i modelli corretti, ma sta facendo previsioni il più imprecise possibile. Valori prossimi allo zero possono indicare un problema con i dati. Per ulteriori informazioni sui parametri AUC, consultare l'articolo [Receiver operating characteristic](https://en.wikipedia.org/wiki/Receiver_operating_characteristic) di Wikipedia.

Di seguito è riportato un esempio di un'area sotto il grafico della curva caratteristica operativa del ricevitore per valutare le previsioni fatte da un modello di classificazione binaria. La linea sottile tratteggiata rappresenta l'area sotto la curva caratteristica operativa del ricevitore ottenuta da un modello che classifica le no-better-than-random ipotesi, con un punteggio AUC di 0,5. Le curve dei modelli di classificazione più accurati si collocano al di sopra di questa linea di base casuale, in cui il valore di veri positivi supera il valore di falsi positivi. L'area sotto la curva caratteristica operativa del ricevitore che rappresenta le prestazioni del modello di classificazione binaria è la linea continua più spessa. 

![\[Esempio di area di Amazon SageMaker Autopilot sotto la curva caratteristica operativa del ricevitore.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-receiver-operating-characteristic-curve.png)


Un riepilogo dei componenti del grafico della **percentuale di falsi positivi** (FPR) e della **percentuale di veri positivi** (TPR) è definito come segue.
+ Previsioni corrette
  + **Vero positivo** (TP): il valore previsto è 1 e il valore vero è 1.
  + **Vero negativo** (TN): il valore previsto è 0 e il valore vero è 0.
+ Previsioni errate
  + **Falso positivo** (FP): il valore previsto è 1, ma il valore vero è 0.
  + **Falso negativo** (FN): il valore previsto è 0, ma il valore vero è 1.

Il **tasso di falsi positivi** (FPR, false positive rate) misura la frazione di veri negativi (TN) erroneamente previsti come positivi (FP), rispetto alla somma di FP e TN. L’intervallo è compreso tra 0 e 1. Un valore minore indica una migliore accuratezza predittiva. 
+ FPR = FP/(FP\$1TN)

Il **tasso di veri positivi** (TPR) misura la frazione di veri positivi correttamente previsti come positivi (TP) rispetto alla somma di TP e falsi negativi (FN). L’intervallo è compreso tra 0 e 1. Un valore maggiore indica una migliore accuratezza predittiva.
+ TPR = TP/(TP\$1FN)

#### Matrice di confusione
<a name="autopilot-model-insights-confusion-matrix"></a>

Una matrice di confusione consente di visualizzare l'accuratezza delle previsioni fatte da un modello per la classificazione binaria e multiclasse per diversi problemi. La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ Il numero e la percentuale di previsioni corrette ed errate per le etichette effettive
+ Il numero e la percentuale di previsioni accurate sulla diagonale dall'angolo superiore sinistro a quello inferiore destro
+ Il numero e la percentuale di previsioni imprecise sulla diagonale dall'angolo superiore destro a quello inferiore sinistro

Le previsioni errate su una matrice di confusione sono i valori di confusione.

Il diagramma seguente è un esempio di matrice binaria per un problema di classificazione multiclasse. Contiene le seguenti informazioni:
+ L'asse verticale è diviso in due righe contenenti etichette effettive vere e false.
+ L'asse orizzontale è diviso in due colonne contenenti le etichette vero e falso previste dal modello.
+ La barra dei colori assegna una tonalità più scura a un numero maggiore di campioni per indicare visivamente il numero di valori classificati in ciascuna categoria.

In questo esempio, il modello ha previsto correttamente 2.817 valori falsi effettivi e 353 valori veri effettivi. Il modello prevedeva erroneamente che 130 valori veri effettivi fossero falsi e 33 valori falsi effettivi fossero veri. La differenza di tono indica che il set di dati non è bilanciato. Lo squilibrio è dovuto al fatto che ci sono molte più etichette false effettive rispetto alle etichette vere.

![\[Esempio di matrice di confusione binaria SageMaker di Amazon Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-confusion-matrix-binary.png)


Il diagramma seguente è un esempio di matrice di confusione per un problema di classificazione multiclasse. La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ L'asse verticale è diviso in tre righe contenenti tre diverse etichette effettive.
+ L'asse orizzontale è diviso in tre colonne contenenti le etichette previste dal modello.
+ La barra dei colori assegna una tonalità più scura a un numero maggiore di campioni per indicare visivamente il numero di valori classificati in ciascuna categoria.

Nell'esempio seguente, il modello ha previsto correttamente 354 valori effettivi per l'etichetta **f**, 1094 valori per l'etichetta **i** e 852 valori per l'etichetta **m**. La differenza di tonalità indica che il set di dati non è bilanciato perché ci sono molte più etichette per il valore **i** che per **f** o **m**. 

![\[Esempio di matrice di confusione multiclasse di Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-confusion-matrix-multiclass.png)


La matrice di confusione contenuta nel report sulla qualità del modello fornito può contenere un massimo di 15 etichette per tipi di problemi di classificazione multiclasse. Se una riga corrispondente a un'etichetta mostra un valore `Nan`, significa che il set di dati di convalida utilizzato per verificare le previsioni del modello non contiene dati con quell'etichetta.

#### Curva di guadagno
<a name="autopilot-model-insights-precision-gain-curve"></a>

Nella classificazione binaria, una curva di guadagno prevede il vantaggio cumulativo derivante dall'utilizzo di una percentuale del set di dati per trovare un'etichetta positiva. Il valore del guadagno viene calcolato durante l'addestramento dividendo il numero cumulativo di osservazioni positive per il numero totale di osservazioni positive nei dati, per ogni decile. Se il modello di classificazione creato durante l'addestramento è rappresentativo dei dati invisibili, è possibile utilizzare la curva di guadagno per prevedere la percentuale di dati da utilizzare come target per ottenere una percentuale di etichette positive. Maggiore è la percentuale del set di dati utilizzato e maggiore sarà la percentuale di etichette positive trovate.

Nel seguente grafico di esempio, la curva di guadagno è la linea con la variazione della pendenza. La linea retta è la percentuale di etichette positive trovate selezionando casualmente una percentuale di dati dal set di dati. Se scegli come target il 20% del set di dati, ti aspetteresti di trovare più del 40% delle etichette positive. Ad esempio, potresti prendere in considerazione l'utilizzo di una curva di guadagno per determinare i tuoi sforzi in una campagna di marketing. Utilizzando il nostro esempio di curva di guadagno, se l'83% delle persone di un quartiere acquistasse biscotti, invieresti un annuncio a circa il 60% del quartiere.

![\[Esempio di curva di guadagno di Amazon SageMaker Autopilot con percentuale e valore di guadagno.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-gain-curve.png)


#### Curva di sollevamento
<a name="autopilot-model-insights-lift-curve"></a>

Nella classificazione binaria, la curva di sollevamento illustra l'aumento derivante dall'utilizzo di un modello addestrato per prevedere la probabilità di trovare un'etichetta positiva rispetto a un'ipotesi casuale. Il valore di sollevamento viene calcolato durante l'addestramento utilizzando il report tra il guadagno percentuale e il report delle etichette positive per ogni decile. Se il modello creato durante l'addestramento è rappresentativo dei dati invisibili, utilizza la curva di sollevamento per prevedere i vantaggi derivanti dall'utilizzo del modello rispetto alle ipotesi casuali.

Nel seguente grafico di esempio, la curva di sollevamento è la linea con la variazione della pendenza. La linea retta è la curva di sollevamento associata alla selezione casuale della percentuale corrispondente dal set di dati. Se hai scelto come target il 40% del set di dati con le etichette di classificazione del modello, ti aspetteresti di trovare circa 1,7 volte il numero di etichette positive che avresti trovato selezionando casualmente il 40% dei dati non visibili.

![\[Esempio di curva di sollevamento di Amazon SageMaker Autopilot con percentuale e valore di sollevamento.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-lift-curve.png)


#### Curva di richiamo di precisione
<a name="autopilot-model-insights-precision-recall-curve"></a>

La curva di richiamo di precisione rappresenta il compromesso tra precisione e richiamo per problemi di classificazione binaria. 

La **precisione** misura la frazione di risultati positivi effettivi previsti come positivi (TP) tra tutte le previsioni positive (TP e falsi positivi). L’intervallo è compreso tra 0 e 1. Un valore maggiore indica una maggiore accuratezza dei valori previsti.
+ Precisione = TP/ (TP\$1FP)

Il **richiamo** misura la frazione di risultati positivi effettivi previsti (TP) come positivi tra tutte le reali previsioni positive (TP e falsi negativi). Questa è anche nota come sensibilità o valore di vero positivo. L’intervallo è compreso tra 0 e 1. Un valore maggiore indica una migliore rilevazione dei valori positivi dal campione. 
+ Richiamo = TP/(TP\$1FN)

L'obiettivo di un problema di classificazione è etichettare correttamente il maggior numero possibile di elementi. Un sistema con richiamo elevato ma bassa precisione restituisce un'alta percentuale di falsi positivi. 

L'immagine seguente mostra un filtro antispam che contrassegna ogni e-mail come spam. Il richiamo è elevato, ma la precisione è bassa, perché il richiamo non misura i falsi positivi. 

Dai più peso al richiamo rispetto alla precisione se il tuo problema ha una bassa penalità per i valori falsi positivi, ma un'alta penalità per la mancanza di un risultato vero positivo. Ad esempio, il rilevamento di una collisione imminente in un veicolo a guida autonoma.

![\[Esempio di autopilota di sistema ad alto richiamo e bassa precisione, che modella tutti i campioni come positivi.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-high-recall-low-precision.PNG)


Al contrario, un sistema con elevata precisione, ma con basso richiamo, restituisce un'alta percentuale di falsi negativi. Un filtro antispam che contrassegna ogni e-mail come desiderata (non spam) ha un'elevata precisione ma un basso livello di richiamo perché la precisione non misura i falsi negativi. 

Se il tuo problema ha una bassa penalità per i valori falsi negativi, ma un'alta penalità per la mancanza di un risultato vero negativo, dai più peso alla precisione rispetto al richiamo. Ad esempio, segnalando un filtro sospetto per un controllo fiscale.

L'immagine seguente mostra un filtro antispam con elevata precisione ma scarso richiamo, poiché la precisione non misura i falsi negativi. 

![\[Esempio di pilota automatico di sistema ad alta precisione e basso richiamo, che modella tutti i campioni come negativi.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-high-precision-low-recall.PNG)


Un modello che effettua previsioni con elevata precisione e richiamo elevato produce un numero elevato di risultati etichettati correttamente. Per ulteriori informazioni, consulta l'articolo [Precisione e recupero](https://en.wikipedia.org/wiki/Precision_and_recall) su Wikipedia.

#### Area sotto la curva di richiamo di precisione (AUPRC)
<a name="autopilot-model-insights-area-under-precision-recall-curve"></a>

Per problemi di classificazione binaria, Amazon SageMaker Autopilot include un grafico dell'area sotto la curva di richiamo di precisione (AUPRC). Il parametro AUPRC fornisce una misura aggregata delle prestazioni del modello in tutte le possibili soglie di classificazione e utilizza sia la precisione che il richiamo. AUPRC non tiene conto del numero di veri aspetti negativi. Pertanto, può essere utile valutare le prestazioni del modello nei casi in cui i dati contengano un gran numero di veri aspetti negativi. Ad esempio, per modellare un gene contenente una mutazione rara.

L'immagine seguente è un esempio di grafico AUPRC. La precisione al suo valore massimo è 1 e il richiamo è 0. Nell'angolo inferiore destro del grafico, il richiamo è il valore più alto (1) e la precisione è 0. Tra questi due punti, la curva AUPRC illustra il compromesso tra precisione e richiamo a soglie diverse.

![\[La curva di richiamo di precisione rappresenta un compromesso tra precisione e richiamo a soglie diverse.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-binary-precision-recall.png)


#### Grafico effettivo rispetto a quello previsto
<a name="autopilot-model-insights-actual-vs-predicted-plot"></a>

Il grafico effettivo rispetto a quello previsto mostra la differenza tra i valori del modello effettivi e quelli previsti. Nel seguente grafico di esempio, la linea continua è una linea lineare che si adatta meglio. Se il modello fosse accurato al 100%, ogni punto previsto corrisponderebbe al punto effettivo corrispondente e si troverebbe su questa linea di miglior adattamento. La distanza dalla linea di miglior adattamento è un'indicazione visiva dell'errore del modello. Maggiore è la distanza dalla linea di miglior adattamento, maggiore è l'errore del modello.

![\[Esempio con linea lineare di miglior adattamento, grafico effettivo e previsto diverso ed errore del modello.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-actual-vs-predicted-plot.png)


#### Grafico residuo standardizzato
<a name="autopilot-model-insights-standardized-residual"></a>

Un grafico residuo standardizzato incorpora i seguenti termini statistici:

**`residual`**  
Un residuo (grezzo) mostra la differenza tra i valori effettivi e quelli previsti dal modello. Maggiore è la differenza, maggiore è il valore residuo.

**`standard deviation`**  
La deviazione standard è una misura di come i valori variano da un valore medio. Una deviazione standard elevata indica che molti valori sono molto diversi dal loro valore medio. Una deviazione standard bassa indica che molti valori sono vicini al loro valore medio.

**`standardized residual`**  
Un residuo standardizzato divide i residui grezzi per la loro deviazione standard. I residui standardizzati hanno unità di deviazione standard e sono utili per individuare valori anomali nei dati indipendentemente dalla differenza di scala dei residui grezzi. Se un residuo standardizzato è molto più piccolo o più grande degli altri residui standardizzati, significa che il modello non si adatta bene a queste osservazioni.

Il grafico residuo standardizzato misura l'intensità della differenza tra i valori osservati e quelli previsti. Il valore effettivo previsto viene visualizzato sull'asse x. Un punto con un valore maggiore di un valore assoluto di 3 viene generalmente considerato un valore anomalo.

Il seguente grafico di esempio mostra che un gran numero di residui standardizzati sono raggruppati attorno allo 0 sull'asse orizzontale. I valori vicini allo zero indicano che il modello si adatta bene a questi punti. I punti verso la parte superiore e inferiore del grafico non sono previsti correttamente dal modello.

![\[Esempio di grafico residuo standardizzato di Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-standardized-residual.png)


#### Istogramma residuo
<a name="autopilot-model-insights-residual-histogram"></a>

Un istogramma residuo incorpora i seguenti termini statistici:

**`residual`**  
Un residuo (grezzo) mostra la differenza tra i valori effettivi e quelli previsti dal modello. Maggiore è la differenza, maggiore è il valore residuo.

**`standard deviation`**  
La deviazione standard è una misura di quanto i valori variano da un valore medio. Una deviazione standard elevata indica che molti valori sono molto diversi dal loro valore medio. Una deviazione standard bassa indica che molti valori sono vicini al loro valore medio.

**`standardized residual`**  
Un residuo standardizzato divide i residui grezzi per la loro deviazione standard. I residui standardizzati hanno unità di deviazione standard. Sono utili per individuare valori anomali nei dati indipendentemente dalla differenza di scala dei residui grezzi. Se un residuo standardizzato è molto più piccolo o più grande degli altri residui standardizzati, indicherebbe che il modello non si adatta bene a queste osservazioni.

**`histogram`**  
Un istogramma è un grafico che mostra la frequenza con cui si è verificato un valore.

L'istogramma residuo mostra la distribuzione dei valori residui standardizzati. Un istogramma distribuito a campana e centrato su zero indica che il modello non prevede o non prevede sistematicamente un particolare intervallo di valori target.

Nel grafico seguente, i valori residui standardizzati indicano che il modello si adatta bene ai dati. Se il grafico mostrasse valori lontani dal valore centrale, indicherebbe che tali valori non si adattano bene al modello.

![\[Valore residuo standardizzato vicino allo zero, che indica che il modello si adatta bene ai dati.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-residual-histogram.png)


# Notebook Autopilot generati per gestire le attività AutoML
<a name="autopilot-automate-model-development-notebook-output"></a>

Amazon SageMaker Autopilot gestisce le attività chiave in un processo di apprendimento automatico (AutoML) utilizzando un processo AutoML. Il processo AutoML crea tre report basati su notebook che descrivono il piano seguito da Autopilot per generare modelli candidati.

Un modello candidato è costituito da una coppia (pipeline, algoritmo). In primo luogo, è disponibile un notebook per l'**esplorazione dei dati**, che descrive ciò che Autopilot ha imparato sui dati che hai fornito. In secondo luogo, è disponibile un notebook di **definizione dei candidati**, che utilizza le informazioni sui dati per generare candidati. In terzo luogo, un report di **informazioni del modello** che può aiutare a dettagliare le caratteristiche prestazionali del modello migliore nella classifica di un esperimento Autopilot.

**Topics**
+ [Report sull’esplorazione dei dati Autopilot](autopilot-data-exploration-report.md)
+ [Trovare ed eseguire il notebook di definizione candidato](autopilot-candidate-generation-notebook.md)

Puoi eseguire questi notebook in Amazon SageMaker AI o localmente, se hai installato l'SDK Amazon [Python SageMaker ](https://sagemaker.readthedocs.io/en/stable). Puoi condividere i notebook come qualsiasi altro notebook Studio Classic. SageMaker I taccuini sono stati creati per consentirti di condurre esperimenti. Ad esempio, è possibile modificare i seguenti elementi nei notebook:
+ i preprocessori utilizzati sui dati 
+ il numero di esecuzioni di ottimizzazione degli iperparametri (HPO) e il loro parallelismo
+ gli algoritmi da provare
+ i tipi di istanza utilizzati per i processi HPO
+ gli intervalli degli iperparametri

Le modifiche al notebook della definizione di candidati sono consigliate come strumento di apprendimento. Questa funzionalità consente di conoscere l'impatto delle decisioni prese durante il processo di machine learning sui risultati. 

**Nota**  
Quando si eseguono i notebook nell'istanza predefinita, si devono sostenere dei costi di base. Tuttavia, quando si eseguono lavori HPO dal notebook del candidato, questi processi utilizzano risorse di elaborazione aggiuntive che comportano costi aggiuntivi. 

# Report sull’esplorazione dei dati Autopilot
<a name="autopilot-data-exploration-report"></a>

Amazon SageMaker Autopilot pulisce e preelabora automaticamente il set di dati. I dati di alta qualità migliorano l'efficienza del machine learning e producono modelli che effettuano previsioni più accurate. 

Esistono problemi con i set di dati forniti dal cliente che non possono essere risolti automaticamente senza il vantaggio di una conoscenza approfondita del dominio. Valori anomali elevati nella colonna di destinazione per problemi di regressione, ad esempio, possono causare previsioni non ottimali per i valori non anomali. Potrebbe essere necessario rimuovere i valori anomali a seconda dell'obiettivo di modellazione. Se una colonna di destinazione viene inclusa accidentalmente come una delle funzionalità di input, il modello finale verrà convalidato correttamente, ma avrà scarso valore per le previsioni future. 

Per aiutare i clienti a scoprire questo tipo di problemi, Autopilot fornisce un report di esplorazione dei dati che contiene informazioni sui potenziali problemi relativi ai dati. Il report suggerisce anche come gestire i problemi.

Per ogni processo di Autopilot viene generato un notebook di esplorazione dei dati contenente il report. Il report è archiviato in un bucket Amazon S3 ed è accessibile dal percorso di output. Il percorso del report di esplorazione dei dati di solito segue lo schema seguente.

```
[s3 output path]/[name of the automl job]/sagemaker-automl-candidates/[name of processing job used for data analysis]/notebooks/SageMaker AIAutopilotDataExplorationNotebook.ipynb
```

La posizione del notebook per l'esplorazione dei dati può essere ottenuta dall'API Autopilot utilizzando la risposta operativa, che è memorizzata in. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html) 

Quando si esegue Autopilot di SageMaker Studio Classic, è possibile aprire il rapporto di esplorazione dei dati utilizzando i seguenti passaggi:

1. Scegli l'icona **Home** ![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/studio/icons/house.png) dal *riquadro di navigazione a sinistra* per visualizzare il menu di navigazione **Amazon SageMaker Studio Classic** di primo livello.

1. Seleziona la scheda **AutoML** dall’area di lavoro principale. Si aprirà una nuova scheda **Autopilot.**

1. Nella sezione **Nome**, seleziona il processo Autopilot contenente il notebook di esplorazione dei dati che desideri esaminare. Si aprirà una nuova scheda **Processo Autopilot.**

1. Seleziona **Apri notebook di esplorazione dei dati** dalla sezione in alto a destra della scheda **Processo Autopilot**.

Il report di esplorazione dei dati viene generato dai dati prima dell'inizio del processo di addestramento. Ciò consente di interrompere i processi di Autopilot che potrebbero portare a risultati insignificanti. Allo stesso modo, puoi gestire eventuali problemi o miglioramenti relativi al set di dati prima di eseguire nuovamente Autopilot. In questo modo, puoi utilizzare la tua esperienza nel dominio per migliorare manualmente la qualità dei dati, prima di addestrare un modello su un set di dati meglio curato.

Il report sui dati contiene solo markdown statici e può essere aperto in qualsiasi ambiente Jupyter. Il notebook che contiene il report può essere convertito in altri formati, come PDF o HTML. Per ulteriori informazioni sulle conversioni, consulta [Utilizzo dello script nbconvert per convertire i notebook Jupyter in altri formati](https://nbconvert.readthedocs.io/en/latest/usage.html ).

**Topics**
+ [Riepilogo del set di dati](#autopilot-data-exploration-report-dataset-summary)
+ [Analisi dei dati di destinazione](#autopilot-data-exploration-report-target-analysis)
+ [Dati di esempio](#autopilot-data-exploration-report-data-sample)
+ [Righe duplicate](#autopilot-data-exploration-report-duplicate-rows)
+ [Correlazioni tra colonne](#autopilot-data-exploration-report-cross-column-correlations)
+ [Righe anomale](#autopilot-data-exploration-report-cross-anomolous-rows)
+ [Valori mancanti, cardinalità e statistiche descrittive](#autopilot-data-exploration-report-description-statistics-and-values)

## Riepilogo del set di dati
<a name="autopilot-data-exploration-report-dataset-summary"></a>

Questo **Riepilogo del set di dati** fornisce le statistiche chiave che caratterizzano il set di dati, tra cui il numero di righe, colonne, la percentuale di righe duplicate e i valori di destinazione mancanti. Ha lo scopo di fornirti un avviso rapido in caso di problemi con il set di dati rilevati da Amazon SageMaker Autopilot e che potrebbero richiedere il tuo intervento. Le informazioni vengono visualizzate come avvertenze classificate come di gravità “alta” o “bassa”. La classificazione dipende dal livello di certezza che il problema avrà un impatto negativo sulle prestazioni del modello.

Le informazioni sulla gravità alta e bassa vengono visualizzate nel riepilogo sotto forma di pop-up. Per la maggior parte delle informazioni, vengono forniti consigli su come confermare la presenza di un problema con il set di dati che richiede la tua attenzione. Vengono inoltre fornite proposte su come risolvere i problemi.

Autopilot fornisce statistiche aggiuntive sui valori di destinazione mancanti o non validi nel nostro set di dati per aiutarti a rilevare altri problemi che potrebbero non essere rilevati da informazioni di elevata gravità. Un numero imprevisto di colonne di un tipo particolare potrebbe indicare che alcune colonne che desideri utilizzare potrebbero mancare nel set di dati. Potrebbe anche indicare che si è verificato un problema con il modo in cui i dati sono stati preparati o archiviati. La risoluzione di questi problemi relativi ai dati segnalati alla tua attenzione da Autopilot può migliorare le prestazioni dei modelli di machine learning addestrati sui dati. 

Le informazioni sulla gravità sono mostrate nella sezione di riepilogo e in altre sezioni pertinenti del report. Di solito vengono forniti esempi di informazioni di alta e bassa gravità a seconda della sezione del report dei dati.

## Analisi dei dati di destinazione
<a name="autopilot-data-exploration-report-target-analysis"></a>

In questa sezione vengono mostrati varie informazioni di alta e bassa gravità relative alla distribuzione dei valori nella colonna di destinazione. Verifica che la colonna di destinazione contenga i valori corretti. I valori errati nella colonna di destinazione probabilmente porteranno a un modello di machine learning che non serve allo scopo aziendale previsto. In questa sezione sono presenti diverse informazioni sui dati di alta e bassa gravità. Di seguito sono riportati vari esempi.
+ **Valori di destinazione anomali**: distribuzione distorta o insolita degli obiettivi per la regressione, ad esempio obiettivi con code pesanti.
+ **Cardinalità di destinazione alta o bassa**: numero poco frequente di etichette di classe o un gran numero di classi univoche per la classificazione.

Sia per i tipi di problemi di regressione che per quelli di classificazione, vengono visualizzati valori non validi come l'infinito numerico, `NaN` o lo spazio vuoto nella colonna di destinazione. A seconda del tipo di problema, vengono presentate statistiche diverse sui set di dati. Una distribuzione dei valori delle colonne di destinazione per un problema di regressione consente di verificare se la distribuzione è quella prevista. 

La schermata seguente mostra un report di dati di Autopilot, che include statistiche come la media, la mediana, il minimo, il massimo e la percentuale di valori anomali nel set di dati. La schermata include anche un istogramma che mostra la distribuzione delle etichette nella colonna di destinazione. L'istogramma mostra i **valori della colonna di destinazione** sull'asse orizzontale e il **conteggio** sull'asse verticale. Una casella evidenzia la sezione **Percentuale di valori anomali** della schermata per indicare dove appare questa statistica.

![\[Report dei dati di Autopilot sulla distribuzione dei valori delle colonne di destinazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-target-analysis.png)


Vengono mostrate più statistiche relative ai valori di destinazione e alla loro distribuzione. Se uno qualsiasi dei valori anomali, dei valori non validi o delle percentuali di valori mancanti è maggiore di zero, questi valori vengono visualizzati in modo da poter individuare il motivo per cui i dati contengono valori di destinazione inutilizzabili. Alcuni valori di destinazione inutilizzabili vengono evidenziati come un avviso di analisi di bassa severità. 

Nella schermata seguente, è stato aggiunto accidentalmente il simbolo ` nella colonna di destinazione, il che ha impedito l'analisi del valore numerico dei dati di destinazione. Viene visualizzato un avviso **Informazioni di gravità bassa: “Valori di destinazione non validi”**. L'avviso in questo esempio indica che «lo 0,14% delle etichette nella colonna di destinazione non può essere convertito in valori numerici. I valori non numerici più comuni sono: ["-3.8e-05","-9-05","-4.7e-05","-1.4999999999999999e-05","-4.3e-05"]. Questo di solito indica che ci sono problemi con la raccolta o l'elaborazione dei dati. Amazon SageMaker Autopilot ignora tutte le osservazioni con un'etichetta di destinazione non valida».

![\[I dati di Autopilot segnalano un avviso di bassa severità relativo a valori di destinazione non validi.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-target-analysis-invalid-target-values.png)


Autopilot fornisce anche un istogramma che mostra la distribuzione delle etichette per la classificazione. 

La schermata seguente mostra un esempio di statistiche fornite per la colonna di destinazione, incluso il numero di classi, i valori mancanti o non validi. Un istogramma con **Etichetta di destinazione** sull'asse orizzontale e **Frequenza** sull'asse verticale mostra la distribuzione di ciascuna categoria di etichette.

![\[I dati di Autopilot riportano un'elevata cardinalità per la classificazione.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-target-analysis-invalid-classification.png)


**Nota**  
Puoi trovare le definizioni di tutti i termini presentati in questa e in altre sezioni nella sezione **Definizioni** nella parte inferiore del notebook del report.

## Dati di esempio
<a name="autopilot-data-exploration-report-data-sample"></a>

Autopilot presenta un campione reale dei tuoi dati per aiutarti a individuare problemi con il tuo set di dati. La tabella di esempio scorre orizzontalmente. Ispeziona i dati di esempio per verificare che tutte le colonne necessarie siano presenti nel set di dati. 

Autopilot calcola anche una misura della potenza di previsione, che può essere utilizzata per identificare una relazione lineare o non lineare tra una funzionalità e la variabile di destinazione. Un valore di `0` indica che la funzionalità non ha alcun valore predittivo nella previsione della variabile di destinazione. Un valore di `1` indica il potere predittivo più elevato per la variabile di destinazione. Per ulteriori informazioni sulla potenza predittiva, consulta la sezione **Definizioni**. 

**Nota**  
Non è consigliabile utilizzare la potenza di previsione come sostituto dell'importanza delle funzionalità. Usala solo se sei certo che la potenza di previsione sia una misura appropriata per il tuo caso d'uso.

La schermata seguente mostra un campione di dati di esempio. La riga superiore contiene la potenza di previsione di ogni colonna del set di dati. La seconda riga contiene il tipo di dati della colonna. Le righe successive contengono le etichette. Le colonne contengono la colonna di destinazione seguita da ogni colonna di funzionalità. Ogni colonna di funzionalità ha un potere di previsione associato, evidenziato in questa schermata, con un riquadro. In questo esempio, la colonna contenente la funzionalità `x51` ha un potere predittivo di `0.68` per la variabile di destinazione `y`. La funzionalità `x55` è leggermente meno predittiva con un potere di previsione di `0.59`.

![\[Potenza di previsione dell’esempio di dati del report dei dati di Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-data-sample-prediction.png)


## Righe duplicate
<a name="autopilot-data-exploration-report-duplicate-rows"></a>

Se nel set di dati sono presenti righe duplicate, Amazon SageMaker Autopilot ne visualizza un esempio.

**Nota**  
Non è consigliabile bilanciare un set di dati mediante un sovracampionamento prima di fornirlo ad Autopilot. Ciò può comportare punteggi di convalida imprecisi per i modelli addestrati da Autopilot e i modelli prodotti potrebbero essere inutilizzabili.

## Correlazioni tra colonne
<a name="autopilot-data-exploration-report-cross-column-correlations"></a>

Autopilot utilizza il coefficiente di correlazione di Pearson, una misura della correlazione lineare tra due funzionalità, per compilare una matrice di correlazione. Nella matrice di correlazione, le funzionalità numeriche vengono tracciate su entrambi gli assi orizzontale e verticale, con il coefficiente di correlazione di Pearson tracciato alle loro intersezioni. Maggiore è la correlazione tra due funzionalità, maggiore è il coefficiente, con un valore massimo di `|1|`.
+ Un valore di `-1` indica che le funzionalità sono perfettamente correlate negativamente.
+ Un valore di `1`, che si verifica quando una funzionalità è correlata con se stessa, indica una correlazione positiva perfetta.

È possibile utilizzare le informazioni nella matrice di correlazione per rimuovere funzionalità altamente correlate. Un numero inferiore di funzionalità riduce le possibilità di sovradimensionamento di un modello e può ridurre i costi di produzione in due modi. Riduce il runtime di Autopilot necessario e, per alcune applicazioni, può rendere più economiche le procedure di raccolta dei dati. 

La schermata seguente mostra un esempio di matrice di correlazione tra `7` funzionalità. Ogni funzionalità viene visualizzata in una matrice su entrambi gli assi orizzontale e verticale. Il coefficiente di correlazione di Pearson viene visualizzato all'intersezione tra due funzionalità. A ogni intersezione di funzionalità è associata una tonalità di colore. Maggiore è la correlazione, più scura è la tonalità. Le tonalità più scure occupano la diagonale della matrice, dove ogni funzionalità è correlata a se stessa, rappresentando una correlazione perfetta.

![\[Matrice di correlazione incrociata dei dati del report Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-data-cross-column-statistics.png)


## Righe anomale
<a name="autopilot-data-exploration-report-cross-anomolous-rows"></a>

Amazon SageMaker Autopilot rileva quali righe del set di dati potrebbero essere anomale. Quindi assegna un punteggio di anomalia a ciascuna riga. Le righe con punteggi di anomalia negativi sono considerate anomale. 

La schermata seguente mostra l'output di un'analisi Autopilot per le righe contenenti anomalie. Una colonna contenente un punteggio anomalo viene visualizzata accanto alle colonne del set di dati per ogni riga.

![\[Set di dati di Autopilot con righe anomale, che mostra punteggi di anomalia negativi.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-data-anomalous-rows.png)


## Valori mancanti, cardinalità e statistiche descrittive
<a name="autopilot-data-exploration-report-description-statistics-and-values"></a>

Amazon SageMaker Autopilot esamina e riporta le proprietà delle singole colonne del set di dati. In ogni sezione del report di dati che presenta questa analisi, il contenuto è disposto in ordine. In questo modo puoi controllare prima i valori più “sospetti”. Utilizzando queste statistiche puoi migliorare il contenuto delle singole colonne e migliorare la qualità del modello prodotto da Autopilot.

Autopilot calcola diverse statistiche sui valori categorici nelle colonne che li contengono. Questi includono il numero di voci uniche e, per il testo, il numero di parole univoche.

Autopilot calcola diverse statistiche standard sui valori numerici nelle colonne che li contengono. L'immagine seguente mostra queste statistiche, inclusi i valori medi, mediani, minimi e massimi e le percentuali dei tipi numerici e dei valori anomali. 

![\[I dati di Autopilot riportano le statistiche su colonne con valori numerici.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-data-report-data-descriptive-statistics.png)


# Trovare ed eseguire il notebook di definizione candidato
<a name="autopilot-candidate-generation-notebook"></a>

Il notebook di definizione candidato contiene tutte le fasi di preelaborazione suggerite, gli algoritmi suggeriti e gli intervalli di iperparametri suggeriti. 

Puoi scegliere quale candidato addestrare e ottimizzare in due modi. Il primo, eseguendo sezioni del notebook. Il secondo, eseguendo l'intero notebook per ottimizzare tutti i candidati e identificare il candidato migliore. Se utilizzi l'intero notebook, dopo il completamento del processo viene visualizzato solo il candidato migliore. 

Per eseguire Autopilot da SageMaker Studio Classic, apri il taccuino delle definizioni dei candidati seguendo questi passaggi:

1. Scegli l'icona **Home** ![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/studio/icons/house.png) dal riquadro di navigazione a sinistra per visualizzare il menu di navigazione **Amazon SageMaker Studio Classic** di primo livello.

1. Seleziona la scheda **AutoML** dall’area di lavoro principale. Si aprirà una nuova scheda **Autopilot.**

1. Nella sezione **Nome**, seleziona il processo Autopilot contenente il notebook di definizione del candidato che desideri esaminare. Si aprirà una nuova scheda **Processo Autopilot.**

1. Scegli **Apri notebook di generazione del candidato** dalla sezione in alto a destra della scheda **Processo Autopilot**. Si apre una nuova anteprima di sola lettura di **Amazon SageMaker Autopilot** Candidate Definition Notebook.

Per eseguire il notebook di definizione del candidato, completa la seguente procedura:

1. Scegli **Importa notebook** in alto a destra nella scheda **Amazon SageMaker Autopilot Candidate Definition** Notebook. Si apre una scheda per configurare un nuovo ambiente notebook in cui eseguire il notebook.

1. **Seleziona un' SageMaker **immagine esistente o usa un'immagine** personalizzata.** 

1. Seleziona un **kernel**, un **tipo di istanza** e uno **script di avvio** opzionale.

Ora puoi eseguire il notebook in questo nuovo ambiente.

# Configura l'output di inferenza nei container generati
<a name="autopilot-automate-model-development-container-output"></a>

Autopilot genera una lista ordinata [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ContainerDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ContainerDefinition.html). Questa può essere usata per creare un modello da implementare in una pipeline di machine learning. Questo modello può essere utilizzato per l'hosting e l'inferenza online. 

I clienti possono elencare le definizioni dei container di inferenza con l'API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidateForAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidateForAutoMLJob.html). La lista delle definizioni dei container di inferenza che rappresentano il miglior candidato è disponibile anche nella risposta [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html).

## Definizioni dei container di inferenza per i tipi di problemi di regressione e classificazione
<a name="autopilot-problem-type-container-output"></a>

Autopilot genera container di inferenza specifici per la [modalità addestramento](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html#autopilot-training-mode) e il [tipo di problema](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-datasets-problem-types.html#autopilot-problem-types) del processo.

### Definizioni dei container per la modalità di ottimizzazione degli iperparametri (HPO)
<a name="autopilot-problem-type-container-output-hpo"></a>
+ **Regressione**: HPO genera due container:

  1. Un container di ingegneria delle funzionalità che trasforma le funzionalità originali in funzionalità su cui si può effettuare l’addestramento degli algoritmi di regressione.

  1. Un container di algoritmi che trasforma le funzionalità e genera un punteggio di regressione per il set di dati.
+ **Classificazione**: HPO genera tre container:

  1. Un container di ingegneria delle funzionalità che trasforma le funzionalità originali in funzionalità su cui si possono addestrare gli algoritmi di classificazione.

  1. Un container di algoritmi che genera il `predicted_label` con la più alta probabilità. Questo container può anche produrre le varie probabilità associate ai risultati della classificazione nella risposta inferenziale.

  1. Un container di ingegneria delle funzionalità che esegue la post-elaborazione della previsione dell'algoritmo. Ad esempio, può eseguire una trasformazione inversa sull'etichetta prevista e sostituirla con l'etichetta originale. 

### Definizioni dei container per la modalità raggruppamento
<a name="autopilot-problem-type-container-output-ensemble"></a>

In modalità raggruppamento, sia i tipi di problemi di regressione che quelli di classificazione hanno un solo container di inferenza. Questo container di inferenza trasforma le funzionalità e genera le previsioni in base al tipo di problema. 

## Risposte di inferenza per tipo di problema
<a name="autopilot-problem-type-inference-response"></a>

### Risposte di inferenza per modelli di classificazione
<a name="autopilot-problem-type-inference-response-classification"></a>

Per i container di inferenza di classificazione, è possibile selezionare il contenuto della risposta di inferenza utilizzando quattro chiavi predefinite:
+ `predicted_label`: L'etichetta con la più alta probabilità di prevedere l'etichetta corretta, come determinato da Autopilot.
+ `probability`: 
  + **Modelli HPO**: la probabilità della classe `True` per la classificazione binaria. La probabilità del `predicted_label` per la classificazione multiclasse.
  + **Ensemble models** (Modelli di raggruppamento): la probabilità della classe `predicted_label` per la classificazione multiclasse.
+ `probabilities`: L'elenco delle probabilità per tutte le classi corrispondenti.
+ `labels`: L'elenco di tutte le etichette.

Ad esempio, per un problema di classificazione binaria, se si passano le chiavi di risposta dell'inferenza `['predicted_label', 'probability', 'probabilities', 'labels']` e la risposta di output appare come `[1, 0.1, "[0.9, 0.1]", "['1', '0']"]`, è necessario interpretarla come segue:

1. `predicted_label` è uguale a `1` perché l'etichetta "1" ha una probabilità maggiore (`0.9` in questo caso).

1. Per i modelli HPO, `probability` è uguale a `0.1` che è la probabilità del `positive_class` (`0` in questo caso) selezionato da Autopilot.

   Per i modelli di raggruppamento, `probability` è uguale a `0.9` che è la probabilità del `predicted_label`

1. `probabilities` elenca il `probability` di ogni etichetta in `labels`.

1. `labels` sono le etichette univoche nel set di dati, dove la seconda etichetta ("0" in questo caso) è `positive_class` selezionato da Autopilot.

Per impostazione predefinita, i container di inferenza sono configurati per generare solo il `predicted_label`. Per selezionare contenuti di inferenza aggiuntivi, puoi aggiornare il parametro `inference_response_keys` per includere fino a queste tre variabili di ambiente:
+ `SAGEMAKER_INFERENCE_SUPPORTED`: è impostato per fornire suggerimenti sui contenuti supportati da ciascun container.
+ `SAGEMAKER_INFERENCE_INPUT`: Questo dovrebbe essere impostato sulle chiavi che il container si aspetta nel payload di input.
+ `SAGEMAKER_INFERENCE_OUTPUT`: Questo dovrebbe essere compilato con il set di chiavi emesso dal container.

### Risposte di inferenza per modelli di classificazione in modalità HPO
<a name="autopilot-problem-type-inference-response-classification-hpo"></a>

Questa sezione mostra come configurare la risposta di inferenza dai modelli di classificazione utilizzando l'ottimizzazione degli iperparametri (HPO).

Per scegliere il contenuto della risposta all'inferenza in modalità HPO: aggiungi le variabili `SAGEMAKER_INFERENCE_INPUT` e `SAGEMAKER_INFERENCE_OUTPUT` al secondo e terzo container generati in modalità HPO per problemi di classificazione.

Le chiavi supportate dal secondo container (algoritmo) sono predicted\$1label, probability e probabilities. Nota che `labels` viene deliberatamente aggiunto a `SAGEMAKER_INFERENCE_SUPPORTED`.

Le chiavi supportate dal container del terzo modello di classificazione sono `predicted_label`, `labels`, `probability` e`probabilities`. Pertanto, l'ambiente `SAGEMAKER_INFERENCE_SUPPORTED` include i nomi di queste chiavi.

Per aggiornare la definizione dei container di inferenza per ricevere `predicted_label` e `probability`, utilizza il seguente esempio di codice.

```
containers[1]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})
containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_INPUT': 'predicted_label, probability'})
containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})
```

Il seguente esempio di codice aggiorna la definizione dei container di inferenza per ricevere `predicted_label`, `probabilities` e `labels`. Non passare il `labels` al secondo container (il container dell'algoritmo), poiché viene generato dal terzo container in modo indipendente. 

```
containers[1]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label,probabilities'})
containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_INPUT': 'predicted_label,probabilities'})
containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probabilities,labels'})
```

Le seguenti sezioni comprimibili forniscono esempi di codice per AWS SDK per Python (Boto3) e per SageMaker SDK for Python. Ogni sezione mostra come selezionare il contenuto delle risposte di inferenza in modalità HPO per il rispettivo esempio di codice.

#### AWS SDK per Python (Boto3)
<a name="autopilot-problem-type-inference-response-classification-hpo-boto3"></a>

```
import boto3

sm_client = boto3.client('sagemaker', region_name='<Region>')

role = '<IAM role>'
input_data = '<S3 input uri>'
output_path = '<S3 output uri>'

best_candidate = sm_client.describe_auto_ml_job(AutoMLJobName='<AutoML Job Name>')['BestCandidate']
best_candidate_containers = best_candidate['InferenceContainers']
best_candidate_name = best_candidate['CandidateName']

best_candidate_containers[1]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})
best_candidate_containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_INPUT': 'predicted_label, probability'})
best_candidate_containers[2]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})

# create model
reponse = sm_client.create_model(
    ModelName = '<Model Name>',
    ExecutionRoleArn = role,
    Containers = best_candidate_containers
)

# Lauch Transform Job
response = sm_client.create_transform_job(
    TransformJobName='<Transform Job Name>',
    ModelName='<Model Name>',
    TransformInput={
        'DataSource': {
            'S3DataSource': {
                'S3DataType': 'S3Prefix',
                'S3Uri': input_data
            }
        },
        'ContentType': "text/CSV",
        'SplitType': 'Line'
    },
    TransformOutput={
        'S3OutputPath': output_path,
        'AssembleWith': 'Line',
    },
    TransformResources={
        'InstanceType': 'ml.m4.xlarge',
        'InstanceCount': 1,
    },
)
```

#### SageMaker SDK per Python
<a name="autopilot-problem-type-inference-response-classification-hpo-sdk"></a>

```
from sagemaker import AutoML

aml = AutoML.attach(auto_ml_job_name='<AutoML Job Name>')
aml_best_model = aml.create_model(name='<Model Name>',
                                  candidate=None,
                                  inference_response_keys**=['probabilities', 'labels'])

aml_transformer = aml_best_model.transformer(accept='text/csv',
                                            assemble_with='Line',
                                            instance_type='ml.m5.xlarge',
                                            instance_count=1,)

aml_transformer.transform('<S3 input uri>',
                          content_type='text/csv',
                          split_type='Line',
                          job_name='<Transform Job Name>',
                          wait=True)
```

### Risposte di inferenza per modelli di classificazione in modalità raggruppamento
<a name="autopilot-problem-type-inference-response-classification-ensemble"></a>

Questa sezione mostra come configurare la risposta di inferenza dai modelli di classificazione utilizzando la modalità raggruppamento. 

In **modalità ensembling** (modalità raggruppamento), per scegliere il contenuto della risposta di inferenza, aggiorna la variabile dell'ambiente `SAGEMAKER_INFERENCE_OUTPUT`.

Le chiavi supportate dal container del modello di classificazione sono`predicted_label`, `labels`, `probability` e `probabilities`. Queste chiavi sono incluse nell'ambiente `SAGEMAKER_INFERENCE_SUPPORTED`.

Per aggiornare la definizione del container di inferenza per ricevere `predicted_label` e`probability`, fare riferimento al seguente esempio di codice.

```
containers[0]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})
```

La seguente sezione comprimibile fornisce un esempio di codice per la selezione del contenuto delle risposte di inferenza in modalità raggruppamento. L'esempio utilizza. AWS SDK per Python (Boto3)

#### AWS SDK per Python (Boto3)
<a name="autopilot-problem-type-inference-response-classification-ensembling-boto3"></a>

```
import boto3
sm_client = boto3.client('sagemaker', region_name='<Region>')

role = '<IAM role>'
input_data = '<S3 input uri>'
output_path = '<S3 output uri>' 

best_candidate = sm_client.describe_auto_ml_job(AutoMLJobName='<AutoML Job Name>')['BestCandidate']
best_candidate_containers = best_candidate['InferenceContainers']
best_candidate_name = best_candidate['CandidateName']

*best_candidate_containers[0]['Environment'].update({'SAGEMAKER_INFERENCE_OUTPUT': 'predicted_label, probability'})
*
# create model
reponse = sm_client.create_model(
    ModelName = '<Model Name>',
    ExecutionRoleArn = role,
    Containers = best_candidate_containers
)

# Lauch Transform Job
response = sm_client.create_transform_job(
    TransformJobName='<Transform Job Name>',
    ModelName='<Model Name>',
    TransformInput={
        'DataSource': {
            'S3DataSource': {
                'S3DataType': 'S3Prefix',
                'S3Uri': input_data
            }
        },
        'ContentType': "text/CSV",
        'SplitType': 'Line'
    },
    TransformOutput={
        'S3OutputPath': output_path,
        'AssembleWith': 'Line',
    },
    TransformResources={
        'InstanceType': 'ml.m4.xlarge',
        'InstanceCount': 1,
    },
)
```

La seguente sezione pieghevole fornisce un esempio di codice identico all'esempio SageMaker SDK for Python per HPO. È incluso per comodità.

#### SageMaker SDK per Python
<a name="autopilot-problem-type-inference-response-classification-ensembling-sdk"></a>

Il seguente esempio di codice HPO utilizza SageMaker SDK per Python.

```
from sagemaker import AutoML

aml = AutoML.attach(auto_ml_job_name='<AutoML Job Name>')
aml_best_model = aml.create_model(name='<Model Name>',
                                  candidate=None,
                                  *inference_response_keys**=['probabilities', 'labels'])*

aml_transformer = aml_best_model.transformer(accept='text/csv',
                                            assemble_with='Line',
                                            instance_type='ml.m5.xlarge',
                                            instance_count=1,)

aml_transformer.transform('<S3 input uri>',
                          content_type='text/csv',
                          split_type='Line',
                          job_name='<Transform Job Name>',
                          wait=True)
```

# Creare un processo di classificazione delle immagini utilizzando l’API AutoML
<a name="autopilot-create-experiment-image-classification"></a>

[Le seguenti istruzioni mostrano come creare un job Amazon SageMaker Autopilot come esperimento pilota per tipi di problemi di classificazione delle immagini utilizzando SageMaker API Reference.](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html)

**Nota**  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.

Puoi creare un esperimento di classificazione delle immagini Autopilot a livello di codice richiamando l'azione dell'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)API in qualsiasi lingua supportata da Amazon Autopilot o da. SageMaker AWS CLI

Per informazioni su come questa azione API si traduce in una funzione nella lingua che preferisci, consulta [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

Di seguito è riportata una raccolta di parametri di richiesta di input obbligatori e facoltativi per l'azione API `CreateAutoMLJobV2` utilizzata nella classificazione delle immagini.

## Parametri obbligatori
<a name="image-classification-api-required-params"></a>

Quando chiami `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per la classificazione delle immagini, devi fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)` per specificare l'origine dati.
+ Un `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)` di tipo `[ImageClassificationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ImageClassificationJobConfig.html)`. 
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

Tutti gli altri parametri sono facoltativi.

## Parametri facoltativi
<a name="image-classification-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri opzionali che è possibile passare al processo AutoML di classificazione delle immagini.

### Come specificare i set di dati di addestramento e convalida di un processo AutoML
<a name="image-classification-data-training-or-validation"></a>

È possibile fornire il proprio set di dati di convalida e un rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati.

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)oggetto (vedi il parametro obbligatorio [Auto MLJob InputDataConfig](https://docs.aws.amazon.com/sagemaker-api/src/AWSSageMakerAPIDoc/build/server-root/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come utilizzare i dati durante la creazione di un modello di apprendimento automatico. 

È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida. Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati. 

Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati.
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLJobChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

### Come specificare la configurazione dell’implementazione automatica del modello per un processo AutoML
<a name="image-classification-auto-model-deployment"></a>

Per abilitare l’implementazione automatica per il miglior modello candidato di un processo AutoML, includi un `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nella richiesta di processo AutoML. Ciò consentirà l'implementazione del modello migliore su un endpoint di SageMaker intelligenza artificiale. Di seguito sono riportate le configurazioni disponibili per la personalizzazione.
+ Per consentire ad Autopilot di generare il nome dell'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)` su `True`.
+ Per fornire il tuo nome per l'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents) to False and provide a name of your choice in [EndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)`.

# Formato dei set di dati e parametro obiettivo per la classificazione delle immagini
<a name="image-classification-data-format-and-metric"></a>

In questa sezione apprenderemo i formati disponibili per i set di dati utilizzati nella classificazione delle immagini e il parametro obiettivo utilizzato per valutare la qualità predittiva dei modelli di machine learning candidati. Le metriche calcolate per i candidati vengono specificate utilizzando una serie di [MetricDatum](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html)tipi.

## Formati di set di dati
<a name="image-classification-data-format"></a>

Autopilot supporta i formati di immagine png, jpg e jpeg. Usa `image/png`se il set di dati contiene tutte le immagini .png, usa `image/jpeg` se contiene tutte le immagini .jpg o .jpeg e usa `image/*` se il set di dati contiene una combinazione di formati di immagine.

## Parametro obiettivo
<a name="image-classification-objective-metric"></a>

L'elenco seguente contiene i nomi dei parametri attualmente disponibili per misurare le prestazioni dei modelli per la classificazione delle immagini.

**`Accuracy`**  
 Il rapporto tra il numero di elementi classificati correttamente e il numero totale di elementi classificati (correttamente e erroneamente). La precisione misura quanto i valori delle classi previsti si avvicinano ai valori effettivi. I valori per i parametri di precisione variano tra zero (0) e uno (1). Un valore pari a 1 indica una perfetta precisione e 0 indica una perfetta imprecisione.

# Implementazione di modelli di Autopilot per l’inferenza in tempo reale
<a name="image-classification-deploy-models"></a>

Dopo aver addestrato i tuoi modelli Amazon SageMaker Autopilot, puoi configurare un endpoint e ottenere previsioni in modo interattivo. La sezione seguente descrive i passaggi per distribuire il modello su un endpoint di inferenza SageMaker AI in tempo reale per ottenere previsioni dal modello.

## Inferenza in tempo reale
<a name="autopilot-deploy-models-text-image-classification-realtime"></a>

L'inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza. Questa sezione mostra come utilizzare l'inferenza in tempo reale per ottenere previsioni in modo interattivo dal modello.

Puoi utilizzarlo SageMaker APIs per distribuire manualmente il modello che ha prodotto la migliore metrica di convalida in un esperimento Autopilot come segue.

In alternativa, puoi scegliere l'opzione di implementazione automatica durante la creazione dell'esperimento Autopilot. Per informazioni sulla configurazione dell’implementazione automatica dei modelli, consulta `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nei parametri di richiesta di `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestParameters)`. Questo crea automaticamente un endpoint.

**Nota**  
Per evitare di incorrere in costi inutili, puoi eliminare gli endpoint e le risorse non necessari creati dall'implementazione del modello. Per informazioni sui prezzi delle istanze per regione, consulta la pagina [ SageMaker dei prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing/).

1. **Ottenere le definizioni dei container di candidati**

   Ottieni le definizioni dei container candidati da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers). Una definizione di contenitore per inferenza si riferisce all'ambiente containerizzato progettato per implementare ed eseguire un modello di SageMaker intelligenza artificiale addestrato per fare previsioni. 

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere le definizioni candidate per il miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Elencare i candidati**

   Il seguente esempio di AWS CLI comando utilizza l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i modelli candidati.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Usa le definizioni dei contenitori dei passaggi precedenti e un candidato a tua scelta per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint**

   Il seguente esempio di AWS CLI comando utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Creare l'endpoint ** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   La seguente struttura di comandi richiama l'endpoint per l'inferenza in tempo reale.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```

# Report di spiegabilità
<a name="image-classification-explainability-report"></a>

Amazon SageMaker Autopilot fornisce un rapporto di spiegabilità per aiutare a spiegare in che modo il miglior modello candidato fa previsioni per problemi di classificazione delle immagini. Questo report può aiutare gli ingegneri del machine learning, i product manager e altri stakeholder interni a comprendere le caratteristiche del modello. Sia i consumatori che le autorità di regolamentazione si affidano alla trasparenza del machine learning per fidarsi e interpretare le decisioni prese sulla base delle previsioni dei modelli. Puoi utilizzare queste spiegazioni per verificare e soddisfare i requisiti normativi, creare fiducia nel modello, supportare il processo decisionale umano, eseguire il debug e migliorare le prestazioni del modello.

La funzionalità esplicativa di Autopilot per la classificazione delle immagini utilizza un approccio visivo CAM (Class Activation Map) che produce una heatmap in cui la distribuzione e l'intensità di ciascun colore evidenziano le aree di un'immagine che contribuiscono maggiormente a una previsione specifica. [Questo approccio si basa sui componenti principali derivati da un'implementazione di Eigen-CAM.](https://arxiv.org/ftp/arxiv/papers/2008/2008.00299.pdf)

Autopilot genera il report di spiegabilità come file JSON. Il report include dettagli di analisi basati sul set di dati di convalida. Ogni immagine utilizzata per generare il report contiene le seguenti informazioni:
+ `input_image_uri`: l'URI di Amazon S3 dell'immagine di input presa come input per la heatmap. 
+ `heatmap_image_uri`: l'URI di Amazon S3 per l'immagine della heatmap generata da Autopilot. 
+ `predicted_label`: La classe di etichetta prevista dal miglior modello addestrato da Autopilot. 
+ `probability`: la sicurezza con cui `predicted_label` viene previsto.

Puoi trovare il prefisso Amazon S3 per gli artefatti di spiegabilità generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.Explainability](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-Explainability)`.

Gli esempi seguenti illustrano l'aspetto delle heatmap su alcuni esempi del [set di dati Animali domestici Oxford-IIIT.](https://www.robots.ox.ac.uk/~vgg/data/pets/) L'immagine della heatmap mostra sfumature di colore che indicano l'importanza relativa delle diverse funzionalità all'interno dell'immagine. Il colore rosso rappresenta le regioni con maggiore importanza nella previsione della “predicted\$1label” dell'immagine di input rispetto alle funzionalità rappresentate dal colore blu.


****  

| Immagine di input | Immagine heatmap | 
| --- | --- | 
|  ![\[L'immagine originale di un cane.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img1-input.png)  |  ![\[Un cane con un’heatmap che evidenzia le Regioni che contribuiscono maggiormente all’etichetta prevista.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img1-output.png)  | 
|  ![\[L'immagine originale di un gatto.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img2-input.png)  |  ![\[Un gatto con un’heatmap che evidenzia le Regioni che contribuiscono maggiormente all’etichetta prevista.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-image-classification-explainability-img2-output.png)  | 

# Report sulle prestazioni del modello
<a name="image-classification-model-performance-report"></a>

Un report sulla qualità del modello Amazon SageMaker AI (noto anche come rapporto sulle prestazioni) fornisce approfondimenti e informazioni sulla qualità per il miglior modello candidato generato da un job di AutoML. Ciò include informazioni sui dettagli del processo, sul tipo di problema del modello, sulla funzione obiettivo e su vari parametri. Questa sezione descrive in dettaglio il contenuto di un report sulle prestazioni per problemi di classificazione delle immagini e spiega come accedere ai parametri come dati non elaborati in un file JSON.

Puoi trovare il prefisso Amazon S3 per gli artefatti del report sulla qualità del modello generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.ModelInsights](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-ModelInsights)`.

Il report sulle prestazioni contiene due sezioni:
+ La prima sezione contiene dettagli sul processo Autopilot che ha prodotto il modello.
+  La seconda sezione contiene un report sulla qualità del modello con vari parametri delle prestazioni.

## Dettagli del processo Autopilot
<a name="image-classification-performance-report-jobdetails"></a>

Questa prima sezione del report fornisce alcune informazioni generali sul processo Autopilot che ha prodotto il modello. Questi dettagli includono le seguenti informazioni:
+ Nome del candidato Autopilot: il nome del miglior candidato modello.
+ Nome del processo Autopilot: Il nome del processo.
+ Tipo di problema: il tipo di problema. Nel nostro caso, *classificazione delle immagini*.
+ Parametro obiettivo: il parametro obiettivo utilizzato per ottimizzare le prestazioni del modello. Nel nostro caso, *Precisione*.
+ Direzione di ottimizzazione: indica se minimizzare o massimizzare il parametro obiettivo.

## Report sulla qualità del modello
<a name="image-classification-performance-report-modelquality"></a>

Le informazioni sulla qualità del modello vengono generate dalle informazioni del modello Autopilot. Il contenuto del report generato dipende dal tipo di problema risolto. Il report specifica il numero di righe incluse nel set di dati di valutazione e l'ora in cui è avvenuta la valutazione.

### Tabelle di parametri
<a name="image-classification-model-quality-report-metrics"></a>

La prima parte del report sulla qualità del modello contiene le tabelle dei parametri. Questi sono i parametri appropriati per il tipo di problema risolto dal modello.

L'immagine seguente è un esempio di tabella dei parametri generata da Autopilot per un problema di classificazione di immagini o testi. Mostra il nome, il valore e la deviazione standard del parametro.

![\[Esempio di report sulle metriche di classificazione del testo o delle immagini di Amazon SageMaker Autopilot Model Insights.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-multiclass-metrics-report.png)


### Informazioni sulle prestazioni del modello grafico
<a name="image-classification-model-quality-report-graphs"></a>

La seconda parte del report sulla qualità del modello contiene informazioni grafiche per aiutarti a valutare le prestazioni del modello. Il contenuto di questa sezione dipende dal tipo di problema selezionato.

#### Matrice di confusione
<a name="image-classification-model-insights-confusion-matrix"></a>

Una matrice di confusione consente di visualizzare l'accuratezza delle previsioni fatte da un modello per la classificazione binaria e multiclasse per diversi problemi.

Un riepilogo dei componenti del grafico della **percentuale di falsi positivi** (FPR) e della **percentuale di veri positivi** (TPR) è definito come segue.
+ Previsioni corrette
  + **True positive** (TP): ha previsto il valore come 1 e il valore true è 1.
  + **True positive** (TN): ha previsto il valore come 0 e il valore true è 0.
+ Previsioni errate
  + **False positive** (FP): ha previsto il valore come 1, ma il valore true è 0.
  + **False negative** (FN): ha previsto il valore come 0, ma il valore true è 1.

La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ Il numero e la percentuale di previsioni corrette ed errate per le etichette effettive
+ Il numero e la percentuale di previsioni accurate sulla diagonale dall'angolo superiore sinistro a quello inferiore destro
+ Il numero e la percentuale di previsioni imprecise sulla diagonale dall'angolo superiore destro a quello inferiore sinistro

Le previsioni errate su una matrice di confusione sono i valori di confusione.

Il diagramma seguente è un esempio di matrice di confusione per un problema di classificazione multiclasse. La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ L'asse verticale è diviso in tre righe contenenti tre diverse etichette effettive.
+ L'asse orizzontale è diviso in tre colonne contenenti le etichette previste dal modello.
+ La barra dei colori assegna una tonalità più scura a un numero maggiore di campioni per indicare visivamente il numero di valori classificati in ciascuna categoria.

Nell'esempio seguente, il modello ha previsto correttamente 354 valori effettivi per l'etichetta **f**, 1094 valori per l'etichetta **i** e 852 valori per l'etichetta **m**. La differenza di tonalità indica che il set di dati non è bilanciato perché ci sono molte più etichette per il valore **i** che per **f** o **m**.

![\[Esempio di matrice di confusione multiclasse di Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-confusion-matrix-multiclass.png)


La matrice di confusione contenuta nel report sulla qualità del modello fornito può contenere un massimo di 15 etichette per tipi di problemi di classificazione multiclasse. Se una riga corrispondente a un'etichetta mostra un valore `Nan`, significa che il set di dati di convalida utilizzato per verificare le previsioni del modello non contiene dati con quell'etichetta.

# Creazione di un processo AutoML per la classificazione del testo utilizzando l’API
<a name="autopilot-create-experiment-text-classification"></a>

[Le seguenti istruzioni mostrano come creare un job Amazon SageMaker Autopilot come esperimento pilota per tipi di problemi di classificazione del testo utilizzando SageMaker API Reference.](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html)

**Nota**  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.

Puoi creare un esperimento di classificazione del testo Autopilot a livello di codice richiamando l'azione dell'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)API in qualsiasi lingua supportata da Amazon Autopilot o da. SageMaker AWS CLI

Per informazioni su come questa azione API si traduce in una funzione nella lingua che preferisci, consulta [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

Di seguito è riportata una raccolta di parametri di richiesta di input obbligatori e facoltativi per l'azione API `CreateAutoMLJobV2` utilizzata nella classificazione del testo.

## Parametri obbligatori
<a name="text-classification-api-required-params"></a>

Quando chiami `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per la classificazione del testo, devi fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)` per specificare l'origine dati.
+ Un `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)` di tipo `[TextClassificationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextClassificationJobConfig.html)`. 
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

Tutti gli altri parametri sono facoltativi.

## Parametri facoltativi
<a name="text-classification-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri opzionali che è possibile passare al processo AutoML di classificazione del testo.

### Come specificare i set di dati di addestramento e convalida di un processo AutoML
<a name="text-classification-data-training-or-validation"></a>

È possibile fornire il proprio set di dati di convalida e un rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati.

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)oggetto (vedi il parametro obbligatorio [Auto MLJob InputDataConfig](https://docs.aws.amazon.com/sagemaker-api/src/AWSSageMakerAPIDoc/build/server-root/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come utilizzare i dati durante la creazione di un modello di apprendimento automatico. 

È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida. Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati. 

Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati.
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLJobChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

### Come specificare la configurazione dell’implementazione automatica del modello per un processo AutoML
<a name="text-classification-auto-model-deployment"></a>

Per abilitare l’implementazione automatica per il miglior modello candidato di un processo AutoML, includi un `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nella richiesta di processo AutoML. Ciò consentirà l'implementazione del modello migliore su un endpoint di SageMaker intelligenza artificiale. Di seguito sono riportate le configurazioni disponibili per la personalizzazione.
+ Per consentire ad Autopilot di generare il nome dell'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)` su `True`.
+ Per fornire il tuo nome per l'endpoint, imposta. `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents) to False and provide a name of your choice in [EndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)`

# Formato dei set di dati e parametro obiettivo per la classificazione del testo
<a name="text-classification-data-format-and-metric"></a>

In questa sezione apprenderemo i formati disponibili per i set di dati utilizzati nella classificazione del testo e il parametro utilizzato per valutare la qualità predittiva dei modelli di machine learning candidati. Le metriche calcolate per i candidati vengono specificate utilizzando una serie di [MetricDatum](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html)tipi.

## Formati di set di dati
<a name="text-classification-data-format"></a>

Autopilot supporta dati tabulari formattati come file CSV o come file Parquet. per i dati tabulari, ogni colonna contiene una funzionalità con un tipo di dati specifico e ogni riga contiene un'osservazione. Le proprietà di questi due formati di file differiscono notevolmente.
+ **CSV** (comma-separated-values) è un formato di file basato su righe che archivia i dati in testo semplice leggibile dall'uomo, una scelta popolare per lo scambio di dati in quanto sono supportati da un'ampia gamma di applicazioni.
+ **Parquet** è un formato di file basato su colonne in cui i dati vengono archiviati ed elaborati in modo più efficiente rispetto ai formati di file basati su righe. Ciò li rende un'opzione migliore per i problemi relativi ai big data.

I **tipi di dati** accettati per le colonne includono testo numerico, categorico.

Autopilot supporta la creazione di modelli di apprendimento automatico su set di dati di grandi dimensioni fino a centinaia di. GBs Per dettagli sui limiti di risorse predefiniti per i set di dati di input e su come aumentarli, consulta le quote di [Amazon SageMaker Autopilot](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-quotas.html).

## Parametro obiettivo
<a name="text-classification-objective-metric"></a>

L'elenco seguente contiene i nomi dei parametri attualmente disponibili per misurare le prestazioni dei modelli per la classificazione del testo.

**`Accuracy`**  
 Il rapporto tra il numero di elementi classificati correttamente e il numero totale di elementi classificati (correttamente e erroneamente). La precisione misura quanto i valori delle classi previsti si avvicinano ai valori effettivi. I valori per i parametri di precisione variano tra zero (0) e uno (1). Un valore pari a 1 indica una perfetta precisione e 0 indica una perfetta imprecisione.

# Implementazione di modelli di Autopilot per l’inferenza in tempo reale
<a name="text-classification-deploy-models"></a>

Dopo aver addestrato i tuoi modelli Amazon SageMaker Autopilot, puoi configurare un endpoint e ottenere previsioni in modo interattivo. La sezione seguente descrive i passaggi per distribuire il modello su un endpoint di inferenza SageMaker AI in tempo reale per ottenere previsioni dal modello.

## Inferenza in tempo reale
<a name="autopilot-deploy-models-text-image-classification-realtime"></a>

L'inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza. Questa sezione mostra come utilizzare l'inferenza in tempo reale per ottenere previsioni in modo interattivo dal modello.

Puoi utilizzarlo SageMaker APIs per distribuire manualmente il modello che ha prodotto la migliore metrica di convalida in un esperimento Autopilot come segue.

In alternativa, puoi scegliere l'opzione di implementazione automatica durante la creazione dell'esperimento Autopilot. Per informazioni sulla configurazione dell’implementazione automatica dei modelli, consulta `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nei parametri di richiesta di `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestParameters)`. Questo crea automaticamente un endpoint.

**Nota**  
Per evitare di incorrere in costi inutili, puoi eliminare gli endpoint e le risorse non necessari creati dall'implementazione del modello. Per informazioni sui prezzi delle istanze per regione, consulta la pagina [ SageMaker dei prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing/).

1. **Ottenere le definizioni dei container di candidati**

   Ottieni le definizioni dei container candidati da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers). Una definizione di contenitore per inferenza si riferisce all'ambiente containerizzato progettato per implementare ed eseguire un modello di SageMaker intelligenza artificiale addestrato per fare previsioni. 

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere le definizioni candidate per il miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Elencare i candidati**

   Il seguente esempio di AWS CLI comando utilizza l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i modelli candidati.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Usa le definizioni dei contenitori dei passaggi precedenti e un candidato a tua scelta per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint**

   Il seguente esempio di AWS CLI comando utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Creare l'endpoint ** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   La seguente struttura di comandi richiama l'endpoint per l'inferenza in tempo reale.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```

# Report di spiegabilità
<a name="text-classification-explainability-report"></a>

Amazon SageMaker Autopilot fornisce un rapporto di spiegabilità per aiutare a spiegare in che modo il miglior modello candidato fa previsioni per problemi di classificazione del testo. Questo report può aiutare gli ingegneri del machine learning, i product manager e altri stakeholder interni a comprendere le caratteristiche del modello. Sia i consumatori che le autorità di regolamentazione si affidano alla trasparenza del machine learning per fidarsi e interpretare le decisioni prese sulla base delle previsioni dei modelli. Puoi utilizzare queste spiegazioni per verificare e soddisfare i requisiti normativi, creare fiducia nel modello, supportare il processo decisionale umano, eseguire il debug e migliorare le prestazioni del modello.

La funzionalità esplicativa Autopilot per la classificazione del testo utilizza il metodo di attribuzione assiomatica *Gradienti integrati*. Questo approccio si basa su un'implementazione dell’[Attribuzione assiomatica per Deep Network.](https://arxiv.org/pdf/1703.01365.pdf)

Autopilot genera il report di spiegabilità come file JSON. Il report include dettagli di analisi basati sul set di dati di convalida. Ogni esempio utilizzato per generare il report contiene le seguenti informazioni:
+ `text`: spiegazione del contenuto del testo di input.
+ `token_scores`: l'elenco dei punteggi per ogni token nel testo.
+ 
  + `attribution`: il punteggio che descrive l'importanza del token.
  + `description.partial_text`: la sottostringa parziale che rappresenta il token.
+ `predicted_label`: la classe di etichetta prevista dal miglior modello candidato.
+ `probability`: la sicurezza con cui `predicted_label` è stato previsto.

Puoi trovare il prefisso Amazon S3 per gli artefatti di spiegabilità generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.Explainability](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-Explainability)`.

Di seguito è riportato un esempio di contenuto di analisi che è possibile trovare negli artefatti di spiegabilità.

```
{
    "text": "It was a fantastic movie!",
    "predicted_label": 2,
    "probability": 0.9984835,
    "token_scores": [
        {
            "attribution": 0,
            "description": {
                "partial_text": "It"
            }
        },
        {
            "attribution": -0.022447118861679088,
            "description": {
                "partial_text": "was"
            }
        },
        {
            "attribution": -0.2164326456817965,
            "description": {
                "partial_text": "a"
            }
        },
        {
            "attribution": 0.675,
            "description": {
                "partial_text": "fantastic"
            }
        },
        {
            "attribution": 0.416,
            "description": {
                "partial_text": "movie!"
            }
        }
    ]
}
```

In questo esempio del report JSON, la funzionalità esplicativa valuta il testo `It was a fantastic movie!` e assegna un punteggio al contributo di ciascuno dei relativi token all'etichetta complessiva prevista. L'etichetta prevista è `2`, che rappresenta un forte sentiment positivo, con una probabilità del 99,85%. L'esempio JSON descrive quindi in dettaglio il contributo di ogni singolo token a questa previsione. Ad esempio, il token `fantastic` ha un'attribuzione più forte rispetto al token `was`. È il token che ha contribuito maggiormente alla previsione finale.

# Report sulle prestazioni del modello
<a name="text-classification-model-performance-report"></a>

Un report sulla qualità del modello Amazon SageMaker AI (noto anche come rapporto sulle prestazioni) fornisce approfondimenti e informazioni sulla qualità per il miglior modello candidato generato da un job di AutoML. Ciò include informazioni sui dettagli del processo, sul tipo di problema del modello, sulla funzione obiettivo e su vari parametri. Questa sezione descrive in dettaglio il contenuto di un report sulle prestazioni per problemi di classificazione del testo e spiega come accedere ai parametri come dati non elaborati in un file JSON.

Puoi trovare il prefisso Amazon S3 per gli artefatti del report sulla qualità del modello generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.ModelInsights](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-ModelInsights)`.

Il report sulle prestazioni contiene due sezioni:
+ La prima sezione contiene dettagli sul processo Autopilot che ha prodotto il modello.
+  La seconda sezione contiene un report sulla qualità del modello con vari parametri delle prestazioni.

## Dettagli del processo Autopilot
<a name="text-classification-performance-report-jobdetails"></a>

Questa prima sezione del report fornisce alcune informazioni generali sul processo Autopilot che ha prodotto il modello. Questi dettagli includono le seguenti informazioni:
+ Nome del candidato Autopilot: il nome del miglior candidato modello.
+ Nome del processo Autopilot: Il nome del processo.
+ Tipo di problema: il tipo di problema. Nel nostro caso, *classificazione del testo*.
+ Parametro obiettivo: il parametro obiettivo utilizzato per ottimizzare le prestazioni del modello. Nel nostro caso, *Precisione*.
+ Direzione di ottimizzazione: indica se minimizzare o massimizzare il parametro obiettivo.

## Report sulla qualità del modello
<a name="text-classification-performance-report-modelquality"></a>

Le informazioni sulla qualità del modello vengono generate dalle informazioni del modello Autopilot. Il contenuto del report generato dipende dal tipo di problema risolto. Il report specifica il numero di righe incluse nel set di dati di valutazione e l'ora in cui è avvenuta la valutazione.

### Tabelle di parametri
<a name="text-classification-model-quality-report-metrics"></a>

La prima parte del report sulla qualità del modello contiene le tabelle dei parametri. Questi sono i parametri appropriati per il tipo di problema risolto dal modello.

L'immagine seguente è un esempio di tabella dei parametri generata da Autopilot per un problema di classificazione di immagini o testi. Mostra il nome, il valore e la deviazione standard del parametro.

![\[Esempio di report sulle metriche di classificazione del testo o delle immagini di Amazon SageMaker Autopilot Model Insights.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-multiclass-metrics-report.png)


### Informazioni sulle prestazioni del modello grafico
<a name="text-classification-model-quality-report-graphs"></a>

La seconda parte del report sulla qualità del modello contiene informazioni grafiche per aiutarti a valutare le prestazioni del modello. Il contenuto di questa sezione dipende dal tipo di problema selezionato.

#### Matrice di confusione
<a name="text-classification--model-insights-confusion-matrix"></a>

Una matrice di confusione consente di visualizzare l'accuratezza delle previsioni fatte da un modello per la classificazione binaria e multiclasse per diversi problemi.

Un riepilogo dei componenti del grafico della **percentuale di falsi positivi** (FPR) e della **percentuale di veri positivi** (TPR) è definito come segue.
+ Previsioni corrette
  + **True positive** (TP): ha previsto il valore come 1 e il valore true è 1.
  + **True positive** (TN): ha previsto il valore come 0 e il valore true è 0.
+ Previsioni errate
  + **False positive** (FP): ha previsto il valore come 1, ma il valore true è 0.
  + **False negative** (FN): ha previsto il valore come 0, ma il valore true è 1.

La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ Il numero e la percentuale di previsioni corrette ed errate per le etichette effettive
+ Il numero e la percentuale di previsioni accurate sulla diagonale dall'angolo superiore sinistro a quello inferiore destro
+ Il numero e la percentuale di previsioni imprecise sulla diagonale dall'angolo superiore destro a quello inferiore sinistro

Le previsioni errate su una matrice di confusione sono i valori di confusione.

Il diagramma seguente è un esempio di matrice di confusione per un problema di classificazione multiclasse. La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ L'asse verticale è diviso in tre righe contenenti tre diverse etichette effettive.
+ L'asse orizzontale è diviso in tre colonne contenenti le etichette previste dal modello.
+ La barra dei colori assegna una tonalità più scura a un numero maggiore di campioni per indicare visivamente il numero di valori classificati in ciascuna categoria.

Nell'esempio seguente, il modello ha previsto correttamente 354 valori effettivi per l'etichetta **f**, 1094 valori per l'etichetta **i** e 852 valori per l'etichetta **m**. La differenza di tonalità indica che il set di dati non è bilanciato perché ci sono molte più etichette per il valore **i** che per **f** o **m**.

![\[Esempio di matrice di confusione multiclasse di Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-confusion-matrix-multiclass.png)


La matrice di confusione contenuta nel report sulla qualità del modello fornito può contenere un massimo di 15 etichette per tipi di problemi di classificazione multiclasse. Se una riga corrispondente a un'etichetta mostra un valore `Nan`, significa che il set di dati di convalida utilizzato per verificare le previsioni del modello non contiene dati con quell'etichetta.

# Creare un processo AutoML per la previsione di serie temporali mediante l’API
<a name="autopilot-create-experiment-timeseries-forecasting"></a>

La previsione nel machine learning si riferisce al processo di previsione di risultati o tendenze future sulla base di dati e modelli storici. Analizzando i dati di serie temporali passate e identificando i modelli sottostanti, gli algoritmi di machine learning possono fare previsioni e fornire informazioni preziose sul comportamento futuro. Nella previsione, l'obiettivo è sviluppare modelli in grado di catturare con precisione la relazione tra le variabili di input e la variabile target nel tempo. Ciò comporta l'esame di vari fattori come tendenze, stagionalità e altri modelli pertinenti all'interno dei dati. Le informazioni raccolte vengono quindi utilizzate per addestrare un modello di machine learning. Il modello addestrato è in grado di generare previsioni prendendo nuovi dati di input e applicando i modelli e le relazioni appresi. Può fornire previsioni per un'ampia gamma di casi d'uso, come proiezioni di vendita, tendenze del mercato azionario, previsioni meteorologiche, previsioni della domanda e molti altri.

[Le seguenti istruzioni mostrano come creare un job Amazon SageMaker Autopilot come esperimento pilota per tipi di problemi di previsione di serie temporali utilizzando API Reference. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html)

**Nota**  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.

Puoi creare un esperimento di previsione di serie temporali Autopilot a livello di codice chiamando l'API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)in qualsiasi lingua supportata da Amazon Autopilot o da. SageMaker AWS CLI

Per informazioni su come questa azione API si traduce in una funzione nella lingua che preferisci, consulta [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

Autopilot addestra diversi modelli candidati con le serie temporali target, quindi seleziona un modello di previsione ottimale per un determinato parametro oggettivo. Una volta formati i tuoi candidati modello, puoi trovare i migliori parametri dei candidati nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` su `[BestCandidate](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateProperties.html#sagemaker-Type-CandidateProperties-CandidateMetrics)`.

Le sezioni seguenti definiscono i parametri di richiesta di input obbligatori e facoltativi per l'API `CreateAutoMLJobV2` utilizzata nella previsione delle serie temporali.

**Nota**  
Fai riferimento al notebook [Time-Series Forecasting with Amazon SageMaker Autopilot](https://github.com/aws/amazon-sagemaker-examples/blob/main/autopilot/autopilot_time_series.ipynb) per un esempio pratico e pratico di previsione delle serie temporali. In questo notebook, usi Amazon SageMaker Autopilot per addestrare un modello di serie temporali e produrre previsioni utilizzando il modello addestrato. Il notebook fornisce istruzioni per recuperare un set di dati cronologici tabulari già pronto all'uso su Amazon S3.

## Prerequisiti
<a name="autopilot-timeseries-forecasting-prerequisites"></a>

Prima di utilizzare Autopilot per creare un esperimento di previsione di serie temporali in AI, assicurati di: SageMaker 
+ Preparare il set di dati delle serie temporali. La preparazione del set di dati prevede la raccolta di dati pertinenti da varie fonti, la pulizia e il filtraggio per rimuovere dati di disturbo e incongruenze e l'organizzazione in un formato strutturato. Vedi [Formato dei set di dati delle serie temporali e metodi di riempimento dei valori mancanti](timeseries-forecasting-data-format.md) per saperne di più sui requisiti dei formati delle serie temporali in Autopilot. Facoltativamente, puoi integrare il tuo set di dati con il calendario delle festività nazionali del Paese di tua scelta per acquisire i modelli associati. Per ulteriori informazioni sui calendari delle festività, vedere [Calendari nazionali delle festività](autopilot-timeseries-forecasting-holiday-calendars.md).
**Nota**  
È consigliabile fornire almeno 3-5 punti dati storici per ogni punto dati futuro da prevedere. Ad esempio, per prevedere con 7 giorni di anticipo (orizzonte di 1 settimana) sulla base di dati giornalieri, addestra il modello su un minimo di 21-35 giorni di dati storici. Assicurati di fornire dati sufficienti per acquisire modelli stagionali e ricorrenti. 
+ Inserisci i dati della serie temporale in un bucket Amazon S3.
+ Concedi l'accesso completo al bucket Amazon S3 contenente i dati di input per il ruolo di esecuzione dell' SageMaker IA utilizzato per eseguire l'esperimento. Fatto ciò, è possibile utilizzare l'ARN di questo ruolo di esecuzione nelle richieste API Autopilot.
  + Per informazioni sul recupero del ruolo di esecuzione dell' SageMaker IA, consulta. [Acquisizione del ruolo di esecuzione](sagemaker-roles.md#sagemaker-roles-get-execution-role)
  + Per informazioni sulla concessione delle autorizzazioni per il ruolo di esecuzione SageMaker AI per accedere a uno o più bucket specifici in Amazon S3, consulta Aggiungere ulteriori *autorizzazioni Amazon S3* a un ruolo di esecuzione AI in. SageMaker [Crea ruolo di esecuzione](sagemaker-roles.md#sagemaker-roles-create-execution-role)

## Parametri obbligatori
<a name="timeseries-forecasting-api-required-params"></a>

Quando chiami `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per la previsione di serie temporali, devi fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo. Il nome deve essere di tipo `string` con una lunghezza minima di 1 carattere e una lunghezza massima di 32.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)` in cui specifichi il nome del bucket Amazon S3 che contiene i tuoi dati. Facoltativamente, puoi specificare i tipi di contenuto (file CSV o Parquet) e di compressione (). GZip
+ Un `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)` di tipo `[TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)` per configurare le impostazioni del processo di previsione delle serie temporali. In particolare, è necessario specificare:
  + La **frequenza** delle previsioni, che si riferisce alla granularità desiderata (oraria, giornaliera, mensile, ecc.) della previsione.

    Gli intervalli validi sono un numero intero seguito da `Y` (anno), `M` (mese), `W` (settimana), `D` (giorno), `H` (ora) e `min` (minuti). Ad esempio, `1D` indica ogni giorno e `15min` indica ogni 15 minuti. Il valore di una frequenza non deve sovrapporsi alla successiva frequenza più grande. Ad esempio, è necessario utilizzare una frequenza di `1H` anziché di `60min`.

    Di seguito sono riportati i valori validi per ciascuna frequenza:
    + Minuti: 1-59
    + Ora: 1-23
    + Giorno: 1-6
    + Settimana: 1-4
    + Mese: 1-11
    + Anno: 1
  + L'**orizzonte** delle previsioni nella tua previsione, che si riferisce al numero di fasi temporali previste dal modello. L'orizzonte di previsione è anche chiamato lunghezza della previsione. L'orizzonte di previsione massimo è il minore tra 500 fasi temporali o 1/4 delle fasi temporali del set di dati.
  + A [TimeSeriesConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesConfig.html)in cui si definisce lo schema del set di dati per mappare le intestazioni delle colonne alla previsione specificando:
    + Un `TargetAttributeName`: La colonna che contiene i dati storici del campo di destinazione da prevedere.
    + Un `TimestampAttributeName`: La colonna che contiene un momento temporale in cui viene registrato il valore target di un determinato elemento.
    + Un `ItemIdentifierAttributeName`: La colonna che contiene gli identificatori degli elementi per i quali si desidera prevedere il valore di target.

  Di seguito è riportato un esempio di questi parametri. In questo esempio, stai impostando una previsione giornaliera per la quantità o il livello di domanda previsti di articoli specifici per un periodo di 20 giorni.

  ```
  "AutoMLProblemTypeConfig": { 
          "ForecastFrequency": "D",
          "ForecastHorizon": 20,
          "TimeSeriesConfig": {
              "TargetAttributeName": "demand",
              "TimestampAttributeName": "timestamp",
              "ItemIdentifierAttributeName": "item_id"
          },
  ```
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati. È possibile utilizzare l'ARN del ruolo di esecuzione a cui hai concesso l'accesso ai tuoi dati.

Tutti gli altri parametri sono facoltativi. Ad esempio, è possibile impostare quantili di previsione specifici, scegliere un metodo di riempimento per i valori mancanti nel set di dati o definire come aggregare i dati che non sono in linea con la frequenza di previsione. Per informazioni su come impostare questi parametri aggiuntivi, consulta [Parametri facoltativi](#timeseries-forecasting-api-optional-params).

## Parametri facoltativi
<a name="timeseries-forecasting-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri opzionali che è possibile passare al processo AutoML di previsione delle serie temporali.

### Come specificare gli algoritmi
<a name="timeseries-forecasting-algorithms-selection"></a>

Per impostazione predefinita, il processo di Autopilot addestra un elenco predefinito di algoritmi sul set di dati. Tuttavia, è possibile fornire un sottoinsieme della selezione predefinita di algoritmi.

Per la previsione di serie temporali, è necessario scegliere `[TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)` come tipo di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

Quindi, è possibile specificare una matrice di selezioni `AutoMLAlgorithms` nell'attributo di`AlgorithmsConfig`. [CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html)

Di seguito è riportato un esempio di attributo `AlgorithmsConfig` che elenca esattamente tre algoritmi (“cnn-qr”, “prophet”, “arima”) nel rispettivo campo `AutoMLAlgorithms`.

```
{
   "[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)": {
        "[TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)": {
          "[CandidateGenerationConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html)": {
            "[AlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html#sagemaker-Type-CandidateGenerationConfig-AlgorithmsConfig)":[
               {"[AutoMLAlgorithms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html)":["cnn-qr", "prophet", "arima"]}
            ]
         },
       },
     },
  }
```

Per l’elenco degli algoritmi disponibili per la previsione di serie temporali, consulta [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html#sagemaker-Type-AutoMLAlgorithmConfig-AutoMLAlgorithms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html#sagemaker-Type-AutoMLAlgorithmConfig-AutoMLAlgorithms). Per informazioni dettagliate su ciascun algoritmo, vedere [Supporto di algoritmi per la previsione di serie temporali](timeseries-forecasting-algorithms.md).

### Come specificare quantili personalizzati
<a name="timeseries-forecasting-custom-quantiles"></a>

Autopilot addestra 6 modelli candidati con le serie temporali target, quindi combina questi modelli utilizzando un metodo di sovrapposizione per creare un modello di previsione ottimale per un determinato parametro oggettivo. Ogni modello di previsione Autopilot genera una previsione probabilistica producendo previsioni con quantili compresi tra P1 e P99. Questi quantili vengono utilizzati per tenere conto dell'incertezza delle previsioni. Per impostazione predefinita, verranno generate previsioni per 0,1 (`p10`), 0,5 (`p50`) e 0,9 (`p90`). È possibile scegliere di specificare i propri quantili. 

In Autopilot, è possibile specificare fino a cinque quantili di previsione da 0,01 (`p1`) a 0,99 (`p99`), con incrementi di 0,01 o superiori nell'attributo di. `ForecastQuantiles` [TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)

Nell'esempio seguente, si sta impostando una previsione giornaliera del 10°, 25°, 50°, 75° e 90° percentile per la quantità o il livello di domanda previsti di articoli specifici in un periodo di 20 giorni.

```
"AutoMLProblemTypeConfig": { 
        "ForecastFrequency": "D",
        "ForecastHorizon": 20,
        "ForecastQuantiles": ["p10", "p25", "p50", "p75", "p90"],
        "TimeSeriesConfig": {
            "TargetAttributeName": "demand",
            "TimestampAttributeName": "timestamp",
            "ItemIdentifierAttributeName": "item_id"
        },
```

### Come aggregare i dati per diverse frequenze di previsione
<a name="timeseries-forecasting-aggregation"></a>

Per creare un modello previsionale (definito anche come il miglior modello candidato dell'esperimento), è necessario specificare una frequenza di previsione. La frequenza delle previsioni determina la frequenza delle anticipazioni. Ad esempio, previsioni di vendita mensili. Il modello migliore Autopilot può generare previsioni per frequenze di dati superiori alla frequenza con cui vengono registrati i dati.

Durante l'addestramento, Autopilot aggrega tutti i dati che non sono in linea con la frequenza di previsione specificata. Ad esempio, potresti avere alcuni dati giornalieri ma specificare una frequenza di previsione settimanale. Autopilot allinea i dati giornalieri in base alla settimana a cui appartengono. Autopilot li combina quindi in un unico record per ogni settimana.

Durante l'aggregazione, il metodo di trasformazione predefinito consiste nel sommare i dati. È possibile configurare l'aggregazione quando si crea il job AutoML nell'attributo `Transformations` di. [TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html) I metodi di aggregazione supportati sono `sum` (impostazione predefinita), `avg`, `first`, `min`, `max`. L'aggregazione è supportata solo per la colonna di destinazione.

Nell'esempio seguente, configuri l'aggregazione per calcolare la media delle singole previsioni promozionali e fornire i valori finali aggregati delle previsioni.

```
"Transformations": {
            "Aggregation": {
                "promo": "avg"
            }
        }
```

### Come gestire i valori mancanti nei set di dati di input.
<a name="timeseries-forecasting-fill-missing-values"></a>

Autopilot fornisce una serie di metodi di riempimento per gestire i valori mancanti nella colonna di destinazione e in altre colonne numeriche dei set di dati delle serie temporali. Per informazioni sull'elenco dei metodi di riempimento supportati e sulla relativa logica di riempimento disponibile, vedere [Gestione dei valori mancanti](timeseries-forecasting-data-format.md#timeseries-missing-values).

Puoi configurare la tua strategia di riempimento nell'`Transformations`attributo di [TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)quando crei il tuo lavoro AutoML.

Per impostare un metodo di riempimento, devi fornire una coppia chiave-valore:
+ La chiave è il nome della colonna per la quale desideri specificare il metodo di riempimento.
+ Il valore associato alla chiave è un oggetto che definisce la strategia di riempimento di quella colonna.

È possibile specificare più metodi di riempimento di una singola colonna.

Per impostare un valore specifico del metodo di riempimento, è necessario impostare il parametro di riempimento sul valore del metodo di riempimento desiderato (ad esempio `"backfill" : "value"`) e definire il valore di riempimento effettivo in un parametro aggiuntivo con il suffisso «\$1value». Ad esempio, per impostare `backfill` a un valore di `2`, è necessario includere due parametri: `"backfill": "value"` e `"backfill_value":"2"`.

Nell'esempio seguente, si specifica la strategia di riempimento per la colonna di dati incompleti, «prezzo», nel modo seguente: tutti i valori mancanti tra la prima coordinata di un elemento e l'ultima vengono impostati a `0`, dopo di che tutti i valori mancanti vengono riempiti con il valore `2` fino alla data di fine del set di dati.

```
"Transformations": {
            "Filling": {
                "price": {
                        "middlefill" : "zero",
                        "backfill" : "value",
                        "backfill_value": "2"
                }
            }
        }
```

### Come specificare un parametro oggettivo
<a name="timeseries-forecasting-set-objective-metric"></a>

Autopilot produce parametri di precisione per valutare i modelli candidati e aiutarti a scegliere quali utilizzare per generare previsioni. Quando esegui un esperimento di previsione di serie temporali, puoi scegliere AutoML per consentire ad Autopilot di ottimizzare il predittore per te, oppure puoi scegliere manualmente un algoritmo per il tuo predittore.

Per impostazione predefinita, Autopilot utilizza la perdita quantile ponderata media. [Tuttavia, puoi configurare la metrica dell'obiettivo quando crei il tuo job AutoML nell'`MetricName`attributo Auto Objective. MLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobObjective.html)

Per l'elenco degli algoritmi disponibili, vedere [Supporto di algoritmi per la previsione di serie temporali](timeseries-forecasting-algorithms.md).

### Come incorporare le informazioni sulle festività nazionali nel set di dati
<a name="timeseries-forecasting-add-holiday-calendar"></a>

In Autopilot, è possibile incorporare nelle proprie serie storiche un set di dati progettato con funzionalità di informazioni sulle festività nazionali. Autopilot fornisce supporto nativo per i calendari delle festività di oltre 250 Paesi. Dopo aver scelto un Paese, durante l'addestramento Autopilot applica il calendario delle festività di quel Paese a ogni elemento del set di dati. Ciò consente al modello di identificare i modelli associati a festività specifiche.

È possibile abilitare la funzionalità delle festività quando si crea il job AutoML passando un [HolidayConfigAttributes](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HolidayConfigAttributes.html)oggetto all'attributo di. `HolidayConfig` [TimeSeriesForecastingJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html) L'oggetto `HolidayConfigAttributes` contiene l'attributo a due lettere `CountryCode` che determina il Paese del calendario delle festività nazionali pubbliche utilizzato per aumentare il set di dati delle serie temporali.

Fai riferimento a [Codice del paese](autopilot-timeseries-forecasting-holiday-calendars.md#holiday-country-codes) per l'elenco dei calendari supportati e il codice del Paese corrispondente.

### Come abilitare l'implementazione automatica
<a name="timeseries-forecasting-auto-model-deployment"></a>

Autopilot ti consente di implementare automaticamente il tuo modello di previsione su un endpoint. Per abilitare l’implementazione automatica per il miglior modello candidato di un processo AutoML, includi un `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nella richiesta di processo AutoML. Ciò consente l'implementazione del modello migliore su un SageMaker endpoint di intelligenza artificiale. Di seguito sono riportate le configurazioni disponibili per la personalizzazione.
+ Per consentire ad Autopilot di generare il nome dell'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)` su `True`.
+ Per fornire il tuo nome per l'endpoint, imposta. `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents) to False and provide a name of your choice in [EndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)`

### Come configurare AutoML per avviare un processo remoto su EMR Serverless per set di dati di grandi dimensioni
<a name="autopilot-set-emr-serverless-api-forecasting"></a>

È possibile configurare un processo AutoML V2 per avviare automaticamente un processo remoto su Amazon EMR Serverless quando sono necessarie risorse di calcolo aggiuntive per elaborare set di dati di grandi dimensioni. Passando senza problemi a EMR Serverless quando necessario, il processo AutoML è in grado di gestire set di dati che altrimenti supererebbero le risorse inizialmente allocate, senza alcun intervento manuale da parte dell’utente. EMR Serverless è disponibile per tipi di problemi relativi a dati tabulari e serie temporali. È consigliabile configurare questa opzione per set di dati di serie temporali di dimensioni superiori a 30 GB.

Per consentire al processo AutoML V2 di passare automaticamente a EMR Serverless per set di dati di grandi dimensioni, è necessario fornire un oggetto `EmrServerlessComputeConfig` che includa un campo `ExecutionRoleARN` ad `AutoMLComputeConfig` nella richiesta di input del processo AutoML V2.

`ExecutionRoleARN` è l’ARN del ruolo IAM che concede al processo AutoML V2 le autorizzazioni necessarie per eseguire i processi EMR Serverless.

Questo ruolo deve avere la relazione di attendibilità seguente:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "Service": "emr-serverless.amazonaws.com"
            },
            "Action": "sts:AssumeRole"
        }
    ]
}
```

------

E concedere le autorizzazioni per:
+ creare, elencare e aggiornare le applicazioni EMR Serverless;
+ avviare, elencare, ottenere o annullare esecuzioni di job su un’applicazione EMR Serverless;
+ etichettare le risorse EMR Serverless;
+ passare un ruolo IAM al servizio EMR Serverless per l’esecuzione.

  Concedendo l’autorizzazione `iam:PassRole`, il processo AutoML V2 può assumere temporaneamente il ruolo `EMRServerlessRuntimeRole-*` e passarlo al servizio EMR Serverless. Questi sono i ruoli IAM utilizzati dagli ambienti di esecuzione dei lavori EMR Serverless per accedere ad altri AWS servizi e risorse necessari durante il runtime, come Amazon S3 per l'accesso ai dati, per la registrazione, CloudWatch l'accesso al AWS Glue Data Catalog o altri servizi in base ai requisiti del carico di lavoro.

  Per informazioni dettagliate sulle autorizzazioni di questo ruolo, consulta [Job runtime roles for Amazon EMR Serverless](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/security-iam-runtime-role.html).

La policy IAM definita nel documento JSON fornito concede queste autorizzazioni:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
           "Sid": "EMRServerlessCreateApplicationOperation",
           "Effect": "Allow",
           "Action": "emr-serverless:CreateApplication",
           "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessListApplicationOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:ListApplications",
            "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessApplicationOperations",
            "Effect": "Allow",
            "Action": [
                "emr-serverless:UpdateApplication",
                "emr-serverless:GetApplication"
            ],
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessStartJobRunOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:StartJobRun",
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessListJobRunOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:ListJobRuns",
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessJobRunOperations",
            "Effect": "Allow",
            "Action": [
                "emr-serverless:GetJobRun",
                "emr-serverless:CancelJobRun"
            ],
            "Resource": "arn:aws:emr-serverless:*:*:/applications/*/jobruns/*",
            "Condition": {
                "StringEquals": {
                    "aws:ResourceTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "EMRServerlessTagResourceOperation",
            "Effect": "Allow",
            "Action": "emr-serverless:TagResource",
            "Resource": "arn:aws:emr-serverless:*:*:/*",
            "Condition": {
                "StringEquals": {
                    "aws:RequestTag/sagemaker:is-canvas-resource": "True",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
        },
        {
            "Sid": "IAMPassOperationForEMRServerless",
            "Effect": "Allow",
            "Action": "iam:PassRole",
            "Resource": "arn:aws:iam::*:role/EMRServerlessRuntimeRole-*",
            "Condition": {
                "StringEquals": {
                    "iam:PassedToService": "emr-serverless.amazonaws.com",
                    "aws:ResourceAccount": "${aws:PrincipalAccount}"
                }
            }
         }
    ]
}
```

------

# Formato dei set di dati delle serie temporali e metodi di riempimento dei valori mancanti
<a name="timeseries-forecasting-data-format"></a>

I dati delle serie temporali si riferiscono a una raccolta di osservazioni o misurazioni registrate a intervalli di tempo regolari. In questo tipo di dati, ogni osservazione è associata a un timestamp o periodo di tempo specifico, creando una sequenza di punti dati ordinati cronologicamente.

Le colonne specifiche che includi nel set di dati delle serie temporali dipendono dagli obiettivi dell'analisi e dai dati a tua disposizione. Come minimo, i dati delle serie temporali sono composti da una tabella a 3 colonne in cui:
+ Una colonna contiene identificatori univoci assegnati a singoli articoli per fare riferimento al loro valore in un momento specifico.
+ Un'altra colonna rappresenta il point-in-time valore o l'**obiettivo** per registrare il valore di un determinato elemento in un momento specifico. Dopo che il modello è stato addestrato su tali valori target, questa colonna di destinazione contiene i valori che il modello prevede con una frequenza specificata all'interno di un orizzonte definito.
+ Inoltre, è inclusa una colonna timestamp per registrare la data e l'ora in cui è stato misurato il valore.
+ Le colonne aggiuntive possono contenere altri fattori che possono influenzare le prestazioni previste. Ad esempio, in un set di dati di serie temporali per la vendita al dettaglio in cui l'obiettivo sono le vendite o i ricavi, è possibile includere funzionalità che forniscono informazioni sulle unità vendute, l'ID del prodotto, l'ubicazione del negozio, il conteggio dei clienti, i livelli di inventario, nonché indicatori covariate come dati meteorologici o informazioni demografiche.

**Nota**  
È possibile aggiungere un set di dati progettato con funzionalità di informazioni sulle festività nazionali alle tue serie storiche. Includendo le festività nel modello della serie temporale, è possibile acquisire gli schemi periodici creati dalle festività. In questo modo le previsioni riflettono meglio la stagionalità sottostante dei dati. Per informazioni sui calendari disponibili per Paese, consulta [Calendari nazionali delle festività](autopilot-timeseries-forecasting-holiday-calendars.md)

## Formato dei set di dati per la previsione di serie temporali
<a name="timeseries-format"></a>

Autopilot supporta tipi di dati numerici, categorici, di testo e datetime. Il tipo di dati della colonna di destinazione deve essere numerico.

Autopilot supporta dati di serie temporali formattati come file CSV (impostazione predefinita) o come file Parquet.
+ **CSV** (comma-separated-values) è un formato di file basato su righe che archivia i dati in testo semplice leggibile dall'uomo, una scelta popolare per lo scambio di dati in quanto sono supportati da un'ampia gamma di applicazioni.
+ **Parquet** è un formato di file basato su colonne in cui i dati vengono archiviati ed elaborati in modo più efficiente rispetto ai formati di file basati su righe. Ciò li rende un'opzione migliore per i problemi relativi ai big data.

Per ulteriori informazioni sui limiti di risorse dei set di dati di serie temporali per la previsione in Autopilot, vedi [Limiti delle risorse per la previsione delle serie temporali per Autopilot](timeseries-forecasting-limits.md).

## Gestione dei valori mancanti
<a name="timeseries-missing-values"></a>

Un problema comune nei dati di previsione delle serie temporali è la presenza di valori mancanti. I dati potrebbero contenere valori mancanti per una serie di motivi, tra cui errori di misurazione, problemi di formattazione, errori umani o mancanza di informazioni da registrare. Ad esempio, se prevedi la domanda dei prodotti per un punto vendita al dettaglio e un articolo è esaurito o non disponibile, non ci saranno dati sulle vendite da registrare mentre l'articolo è esaurito. Se numerosi, i valori mancanti possono influire in modo significativo sulla precisione di un modello.

Autopilot fornisce una serie di metodi di riempimento per gestire i valori mancanti, con approcci distinti per la colonna di destinazione e altre colonne aggiuntive. Il riempimento è il processo di aggiunta di valori standardizzati alle voci mancanti nel set di dati.

Fai riferimento a [Come gestire i valori mancanti nei set di dati di input.](autopilot-create-experiment-timeseries-forecasting.md#timeseries-forecasting-fill-missing-values) per impostare il metodo per riempire i valori mancanti nel set di dati delle serie temporali.

Autopilot supporta i seguenti metodi di riempimento:
+ **Riempimento frontale:** riempie tutti i valori mancanti tra il primo punto dati registrato tra tutti gli elementi e il punto di partenza di ogni elemento (ogni elemento può iniziare in un momento diverso). In questo modo si garantisce che i dati di ciascun elemento siano completi e vadano dal primo punto registrato al rispettivo punto di partenza.
+ **Riempimento centrale:** riempie tutti i valori mancanti tra le date di inizio e fine degli elementi del set di dati.
+ **Riempimento posteriore: ** riempie tutti i valori mancanti tra l'ultimo punto dati di ciascun elemento (ogni elemento può fermarsi in un momento diverso) e l'ultimo punto dati registrato tra tutti gli elementi.
+ **Riempimento futuro:** riempie tutti i valori mancanti tra l'ultimo punto dati registrato tra tutti gli elementi e la fine dell'orizzonte di previsione.

L'immagine seguente fornisce una rappresentazione visiva dei diversi metodi di riempimento.

![\[I diversi metodi di riempimento per la previsione delle serie temporali in Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-forecast-filling-methods.png)


### Scegliere una logica di riempimento
<a name="filling-logic"></a>

Quando si sceglie una logica di riempimento, è necessario considerare come la logica verrà interpretata dal modello. Ad esempio, in uno scenario di vendita al dettaglio, la registrazione di 0 vendite di un articolo disponibile è diversa dalla registrazione di 0 vendite di un articolo non disponibile, in quanto quest'ultimo non implica una mancanza di interesse del cliente per l'articolo. Per questo motivo, il riempimento `0` delle serie temporali della colonna di destinazione potrebbe causare una sottovalutazione del predittore nelle sue previsioni, mentre il riempimento `NaN` potrebbe ignorare le occorrenze effettive di 0 articoli disponibili venduti e causare un eccesso di parte del predittore.

### Logica di riempimento
<a name="filling-restrictions"></a>

È possibile eseguire il riempimento della colonna di destinazione e di altre colonne numeriche nei set di dati. Le colonne di destinazione hanno linee guida e restrizioni di riempimento diverse rispetto al resto delle colonne numeriche.

Linee guida per il riempimento


| Tipo di colonna | Riempimento per impostazione predefinita? | Metodi di riempimento supportati | Logica di riempimento predefinita | Logica di riempimento accettata | 
| --- | --- | --- | --- | --- | 
| Colonna di destinazione | Sì | Riempimento centrale e passato | 0 |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/timeseries-forecasting-data-format.html)  | 
| Altre colonne numeriche | No | Riempimento medio, passato e futuro | Nessun valore predefinito |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/timeseries-forecasting-data-format.html)  | 

**Nota**  
Sia per la colonna di destinazione che per le altre colonne numeriche, `mean`, `median`, `min` e `max` vengono calcolati sulla base di una finestra mobile dei 64 dati più recenti prima dei valori mancanti.

# Calendari nazionali delle festività
<a name="autopilot-timeseries-forecasting-holiday-calendars"></a>

Autopilot supporta un set di dati progettato con funzionalità di informazioni sulle festività nazionali che fornisce l'accesso ai calendari delle festività di oltre 250 paesi. Le funzionalità del calendario delle festività sono particolarmente utili nel settore della vendita al dettaglio, dove i giorni festivi possono influire in modo significativo sulla domanda. La sezione seguente elenca i codici dei paesi che è possibile utilizzare per accedere ai calendari delle festività di ogni paese supportato.

Fai riferimento a [Come incorporare le informazioni sulle festività nazionali nel set di dati](autopilot-create-experiment-timeseries-forecasting.md#timeseries-forecasting-add-holiday-calendar) per scoprire come aggiungere un calendario al tuo set di dati.

## Codice del paese
<a name="holiday-country-codes"></a>

Autopilot fornisce supporto nativo per i calendari delle festività dei seguenti Paesi. Usa il **codice del paese** quando specifichi un paese con l'API.


| Paese | Codice del paese | 
| --- | --- | 
|   Afghanistan   |   AF   | 
|   Isole Åland   |   AX   | 
|   Albania   |   AL   | 
|   Algeria   |   DZ   | 
|   Samoa americane   |   AS   | 
|   Andorra   |   AD   | 
|   Angola   |   AO   | 
|   Anguilla   |   AI   | 
|   Antartide   |   AQ   | 
|   Antigua e Barbuda   |   AG   | 
|   Argentina   |   AR   | 
|   Armenia   |   AM   | 
|   Aruba   |   AW   | 
|   Australia   |   AU   | 
|   Austria   |   AT   | 
|   Azerbaigian   |   AZ   | 
|   Bahamas   |   BS   | 
|   Bahrein   |   BH   | 
|   Bangladesh   |   BD   | 
|   Barbados   |   BB   | 
|   Bielorussia   |   BY   | 
|   Belgio   |   BE   | 
|   Belize   |   BZ   | 
|   Benin   |   BJ   | 
|   Bermuda   |   BM   | 
|   Bhutan   |   BT   | 
|   Bolivia   |   BO   | 
|   Bosnia ed Erzegovina   |   BA   | 
|   Botswana   |   BW   | 
|   Isola Bouvet   |   BV   | 
|   Brasile   |   BR   | 
|   Territorio britannico dell'Oceano Indiano   |   IO   | 
|   Isole Vergini britanniche   |   VG   | 
|   Brunei Darussalam   |   BN   | 
|   Bulgaria   |   BG   | 
|   Burkina Faso   |   BF   | 
|   Burundi   |   BI   | 
|   Cambogia   |   KH   | 
|   Camerun   |   CM   | 
|   Canada   |   CA   | 
|   Capo Verde   |   CV   | 
|   Paesi Bassi caraibici   |   BQ   | 
|   Isole Cayman   |   KY   | 
|   Repubblica Centrafricana   |   CF   | 
|   Ciad   |   TD   | 
|   Cile   |   CL   | 
|   Cina   |   CN   | 
|   Isola di Natale   |   CX   | 
|   Isole Cocos (Keeling)   |   CC   | 
|   Colombia   |   CO   | 
|   Comore   |   KM   | 
|   Isole Cook   |   CK   | 
|   Costa Rica   |   CR   | 
|   Croazia   |   HR   | 
|   Cuba   |   CU   | 
|   Curacao   |   CW   | 
|   Cipro   |   CY   | 
|   Cechia   |   CZ   | 
|   Repubblica Democratica del Congo   |   CD   | 
|   Danimarca   |   DK   | 
|   Gibuti   |   DJ   | 
|   Dominica   |   DM   | 
|   Repubblica Dominicana   |   DO   | 
|   Ecuador   |   EC   | 
|   Egitto   |   EG   | 
|   El Salvador   |   SV   | 
|   Guinea Equatoriale   |   GQ   | 
|   Eritrea   |   ER   | 
|   Estonia   |   EE   | 
|   Eswatini   |   SZ   | 
|   Etiopia   |   ET   | 
|   Isole Falkland   |   FK   | 
|   Isole Fær Øer   |   FO   | 
|   Figi   |   FJ   | 
|   Finlandia   |   FI   | 
|   Francia   |   FR   | 
|   Guyana francese   |   GF   | 
|   Polinesia francese   |   PF   | 
|   Territori meridionali francesi   |   TF   | 
|   Gabon   |   GA   | 
|   Gambia   |   GM   | 
|   Georgia   |   GE   | 
|   Germania   |   DE   | 
|   Ghana   |   GH   | 
|   Gibilterra   |   GI   | 
|   Grecia   |   GR   | 
|   Groenlandia   |   GL   | 
|   Grenada   |   GD   | 
|   Guadalupa   |   GP   | 
|   Guam   |   GU   | 
|   Guatemala   |   GT   | 
|   Guernsey   |   GG   | 
|   Guinea   |   GN   | 
|   Guinea-Bissau   |   GW   | 
|   Guyana   |   GY   | 
|   Haiti   |   HT   | 
|   Isola e McDonald isole Heard   |   HM   | 
|   Honduras   |   HN   | 
|   Hong Kong   |   HK   | 
|   Ungheria   |   HU   | 
|   Islanda   |   IS   | 
|   India   |   IN   | 
|   Indonesia   |   ID   | 
|   Iran   |   IR   | 
|   Iraq   |   IQ   | 
|   Irlanda   |   IE   | 
|   Isola di Man   |   IM   | 
|   Israele   |   IL   | 
|   Italia   |   IT   | 
|   Costa d'Avorio   |   CI   | 
|   Giamaica   |   JM   | 
|   Giappone   |   JP   | 
|   Jersey   |   JE   | 
|   Giordania   |   JO   | 
|   Kazakistan   |   KZ   | 
|   Kenya   |   KE   | 
|   Kiribati   |   KI   | 
|   Kosovo   |   XK   | 
|   Kuwait   |   KW   | 
|   Kirghizistan   |   KG   | 
|   Laos   |   LA   | 
|   Lettonia   |   LV   | 
|   Libano   |   LB   | 
|   Lesotho   |   LS   | 
|   Liberia   |   LR   | 
|   Libia   |   LY   | 
|   Liechtenstein   |   LI   | 
|   Lituania   |   LT   | 
|   Lussemburgo   |   LU   | 
|   Macao   |   MO   | 
|   Madagascar   |   MG   | 
|   Malawi   |   MW   | 
|   Malesia   |   MY   | 
|   Maldive   |   MV   | 
|   Mali   |   ML   | 
|   Malta   |   MT   | 
|   Isole Marshall   |   MH   | 
|   Martinica   |   MQ   | 
|   Mauritania   |   MR   | 
|   Mauritius   |   MU   | 
|   Mayotte   |   YT   | 
|   Messico   |   MX   | 
|   Micronesia   |   FM   | 
|   Moldavia   |   MD   | 
|   Monaco   |   MC   | 
|   Mongolia   |   MN   | 
|   Montenegro   |   ME   | 
|   Montserrat   |   MS   | 
|   Marocco   |   MA   | 
|   Mozambico   |   MZ   | 
|   Birmania   |   MM   | 
|   Namibia   |   NA   | 
|   Nauru   |   NR   | 
|   Nepal   |   NP   | 
|   Paesi Bassi   |   NL   | 
|   Nuova Caledonia   |   NC   | 
|   Nuova Zelanda   |   NZ   | 
|   Nicaragua   |   NI   | 
|   Niger   |   NE   | 
|   Nigeria   |   NG   | 
|   Niue   |   NU   | 
|   Isola di Norfolk   |   NF   | 
|   Corea del Nord   |   KP   | 
|   Nrd Macedonia del Nord   |   MK   | 
|   Isole Marianne Settentrionali   |   MP   | 
|   Norvegia   |   NO   | 
|   Oman   |   OM   | 
|   Pakistan   |   PK   | 
|   Palau   |   PW   | 
|   Palestina   |   PS   | 
|   Panama   |   PA   | 
|   Papua Nuova Guinea   |   PG   | 
|   Paraguay   |   PY   | 
|   Perù   |   PE   | 
|   Filippine   |   PH   | 
|   Isole Pitcairn   |   PN   | 
|   Polonia   |   PL   | 
|   Portogallo   |   PT   | 
|   Porto Rico   |   PR   | 
|   Qatar   |   QA   | 
|   Repubblica del Congo   |   CG   | 
|   Riunione   |   RE   | 
|   Romania   |   RO   | 
|   Federazione Russa   |   RU   | 
|   Ruanda   |   RW   | 
|   Saint Barthélemy   |   BL   | 
|   “Sant'Elena, Ascensione e Tristan da Cunha”   |   SH   | 
|   Saint Kitts e Nevis   |   KN   | 
|   Santa Lucia   |   LC   | 
|   Saint MartinSan Martino   |   MF   | 
|   Saint Pierre e Miquelon   |   PM   | 
|   Saint Vincent e Grenadine   |   VC   | 
|   Samoa   |   WS   | 
|   San Marino   |   SM   | 
|   São Tomé e Príncipe   |   ST   | 
|   Arabia Saudita   |   SA   | 
|   Senegal   |   SN   | 
|   Serbia   |   RS   | 
|   Seychelles   |   SC   | 
|   Sierra Leone   |   SL   | 
|   Singapore   |   SG   | 
|   Saint-Martin   |   SX   | 
|   Slovacchia   |   SK   | 
|   Slovenia   |   SI   | 
|   Isole Salomone   |   SB   | 
|   Somalia   |   SO   | 
|   Sudafrica   |   ZA   | 
|   Georgia del Sud e isole Sandwich meridionali   |   GS   | 
|   Corea del Sud   |   KR   | 
|   Sudan del Sud   |   SS   | 
|   Spagna   |   ES   | 
|   Sri Lanka   |   LK   | 
|   Sudan   |   SD   | 
|   Suriname   |   SR   | 
|   Svalbard e Jan Mayen   |   SJ   | 
|   Svezia   |   SE   | 
|   Svizzera   |   CH   | 
|   Siria, Repubblica araba   |   SY   | 
|   Taiwan   |   TW   | 
|   Tagikistan   |   TJ   | 
|   Tanzania   |   TZ   | 
|   Tailandia   |   TH   | 
|   Timor Est   |   TL   | 
|   Togo   |   TG   | 
|   Tokelau   |   TK   | 
|   Tonga   |   TO   | 
|   Trinidad e Tobago   |   TT   | 
|   Tunisia   |   TN   | 
|   Turchia   |   TR   | 
|   Turkmenistan   |   TM   | 
|   Turks e Caicos   |   TC   | 
|   Tuvalu   |   TV   | 
|   Uganda   |   UG   | 
|   Ucraina   |   UA   | 
|   Emirati Arabi Uniti   |   AE   | 
|   Regno Unito   |   UK   | 
|   Nazioni Unite   |   UN   | 
|   Stati Uniti   |   US   | 
|   Isole minori periferiche degli Stati Uniti   |   UM   | 
|   Isole Vergini Stati Uniti   |   VI   | 
|   Uruguay   |   UY   | 
|   Uzbekistan   |   UZ   | 
|   Vanuatu   |   VU   | 
|   Città del Vaticano   |   VA   | 
|   Venezuela   |   VE   | 
|   Vietnam   |   VN   | 
|   Wallis e Futuna   |   WF   | 
|   Sahara occidentale   |   EH   | 
|   Yemen   |   YE   | 
|   Zambia   |   ZM   | 
|   Zimbabwe   |   ZW   | 

# Parametro oggettivo
<a name="timeseries-objective-metric"></a>

Autopilot produce parametri di precisione per valutare i modelli candidati e aiutarti a scegliere quali utilizzare per generare previsioni. Puoi lasciare che Autopilot ottimizzi il predittore per te oppure puoi scegliere manualmente un algoritmo per il tuo predittore. Per impostazione predefinita, Autopilot utilizza la perdita quantile ponderata media.

L'elenco seguente contiene i nomi dei parametri attualmente disponibili per misurare le prestazioni dei modelli per la previsione di serie temporali.

**`RMSE`**  
L’errore quadratico medio (RMSE): misura la radice quadrata della differenza quadratica tra i valori previsti e quelli effettivi, e viene calcolata la media di tutti i valori. È un parametro importante per indicare la presenza di errori e valori anomali di un modello di grandi dimensioni. I valori sono compresi tra zero (0) e infinito, con numeri più piccoli che indicano una migliore adattabilità del modello ai dati. L’RMSE dipende dalla scala e non deve essere utilizzato per confrontare set di dati di dimensioni diverse.

**`wQL`**  
Perdita quantile ponderata (wQl): valuta l'accuratezza della previsione misurando le differenze assolute ponderate tra i quantili P10, P50 e P90 previsti e quelli effettivi con valori più bassi che indicano prestazioni migliori.

**`Average wQL (default)`**  
Perdita quantile ponderata media (wQl media): valuta la previsione calcolando la media dell'accuratezza sui quantili P10, P50 e P90. Un valore più basso indica un modello più preciso.

**`MASE`**  
Errore assoluto medio scalato (MASE): l'errore assoluto medio della previsione normalizzato rispetto all'errore assoluto medio di un semplice metodo di previsione di base. Un valore più basso indica un modello più accurato, in cui MASE < 1 è considerato migliore della linea di base e MASE > 1 è considerato peggiore della linea di base.

**`MAPE`**  
Errore assoluto medio percentuale (MAPE): l'errore percentuale (differenza percentuale tra il valore medio previsto e il valore effettivo) calcolato in media su tutti i punti temporali. Un valore più basso indica un modello più accurato, dove MAPE = 0 è un modello senza nessun errore.

**`WAPE`**  
Errore assoluto percentuale ponderato (WAPE): la somma dell'errore assoluto normalizzata per la somma della destinazione assoluta, che misura la deviazione generale dei valori previsti dai valori osservati. Un valore più basso indica un modello più preciso.

# Supporto di algoritmi per la previsione di serie temporali
<a name="timeseries-forecasting-algorithms"></a>

Autopilot addestra i seguenti sei algoritmi integrati con le serie temporali target. Quindi, utilizzando un metodo di sovrapposizione, combina questi modelli candidati per creare un modello di previsione ottimale per un determinato parametro oggettivo.
+ **Rete neurale convoluzionale - Regressione quantile (CNN-QR) — CNN-QR è un algoritmo di apprendimento automatico proprietario per la previsione di serie temporali utilizzando reti neurali convoluzionali causali ()**. CNNs CNN-QR funziona al meglio con set di dati di grandi dimensioni contenenti centinaia di serie temporali.
+ **DeePar\$1** — DeePar\$1 è un algoritmo di apprendimento automatico proprietario per la previsione di serie temporali utilizzando reti neurali ricorrenti (). RNNs Deepar\$1 funziona al meglio con set di dati di grandi dimensioni contenenti centinaia di serie temporali di funzionalità.
+ **Prophet**: [Prophet](https://facebook.github.io/prophet/) è un popolare modello Bayesiano locale di serie temporali strutturali basato su un modello additivo in cui i trend non lineari sono adattati alla stagionalità annuale, settimanale e giornaliera. L'algoritmo Autopilot Prophet usa la [Classe Prophet](https://facebook.github.io/prophet/docs/quick_start.html#python-ap) dell'implementazione Python di Prophet. Funziona al meglio con serie temporali con forti effetti stagionali e diverse stagioni di dati storici. 
+ **Serie temporali non parametriche (NPTS)**: l'algoritmo proprietario NPTS è un previsore di base scalabile e probabilistico. Consente di prevedere l'implementazione di valori futura di una determinata serie temporale eseguendo il campionamento da osservazioni passate. L'NPTS è particolarmente utile quando si lavora con serie temporali rade o intermittenti. 
+ **Autoregressive Integrated Moving Average (ARIMA)**: ARIMA è un algoritmo statistico comunemente utilizzato per la previsione delle serie temporali. L’algoritmo consente di acquisire strutture temporali standard (organizzazioni modellate del tempo) nel set di dati di input. È particolarmente utile per set di dati semplici con meno di 100 serie temporali. 
+ **Exponential Smoothing (ETS)** ETS è un algoritmo statistico comunemente utilizzato per la previsione delle serie temporali. L'algoritmo è particolarmente utile per set di dati semplici con meno di 100 serie temporali e set di dati con modelli di stagionalità. L'ETS calcola come previsione una media ponderata su tutte le osservazioni del set di dati della serie temporale, con pesi esponenzialmente decrescenti nel tempo.

# Prevedere un modello Autopilot implementato
<a name="timeseries-forecasting-deploy-models"></a>

Dopo aver addestrato i modelli utilizzando l’API AutoML, è possibile implementarli per previsioni in tempo reale o basate su batch. 

L’API AutoML addestra diversi modelli candidati per i dati di serie temporali, quindi seleziona un modello di previsione ottimale in base a una determinata metrica oggettiva. [Una volta formati i tuoi candidati modello, puoi trovare il candidato migliore nella risposta V2 all'indirizzo. DescribeAuto MLJob [BestCandidate](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-CandidateName)](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)

Per ottenere previsioni utilizzando questo modello di migliori candidati, è possibile configurare un endpoint per ottenere previsioni in modo interattivo o utilizzare la previsione in batch per fare previsioni su un batch di osservazioni.

**Considerazioni**
+ Quando si forniscono dati di input per la previsione, lo schema dei dati deve rimanere lo stesso di quello utilizzato per addestrare il modello, incluso il numero di colonne, le intestazioni di colonna e i tipi di dati. È possibile effettuare previsioni per un elemento esistente o nuovo IDs all'interno dello stesso intervallo di timestamp o in un intervallo di timestamp diverso e prevedere per un periodo di tempo diverso.
+ I modelli di previsione prevedono per i punti dell'orizzonte di previsione nel futuro specificati nella richiesta di input al momento dell'addestramento, che va dalla *data di fine target* alla *data di fine target \$1 orizzonte di previsione*. Per utilizzare il modello per prevedere date specifiche, è necessario fornire i dati nello stesso formato dei dati di input originali, fino a una *data di fine target* specificata. In questo scenario, il modello inizierà a fare previsioni a partire dalla nuova data di fine target.

  Ad esempio, se il set di dati contiene dati mensili da gennaio a giugno con un orizzonte di previsione di 2, il modello prevede il valore target per i prossimi 2 mesi, ovvero luglio e agosto. Se ad agosto vuoi fare previsioni per i prossimi 2 mesi, questa volta i dati di input dovrebbero essere da gennaio ad agosto e il modello farà previsioni per i successivi 2 mesi (settembre, ottobre).
+ Durante la previsione di punti dati futuri, non esiste un minimo prestabilito per la quantità di dati storici da fornire. Includi dati sufficienti per acquisire modelli stagionali e ricorrenti nelle serie temporali.

**Topics**
+ [Previsione in tempo reale](timeseries-forecasting-realtime.md)
+ [Previsione in batch](timeseries-forecasting-batch.md)

# Previsione in tempo reale
<a name="timeseries-forecasting-realtime"></a>

La previsione in tempo reale è utile quando è necessario generare previsioni on-the-fly, ad esempio per le applicazioni che richiedono risposte immediate o per le previsioni per singoli punti dati.

Implementando il modello AutoML come endpoint in tempo reale, è possibile generare previsioni on demand e ridurre al minimo la latenza tra la ricezione di nuovi dati e delle previsioni. Questo rende le previsioni in tempo reale particolarmente adatte per applicazioni che richiedono funzionalità di previsione immediate, personalizzate o basate sugli eventi.

Per le previsioni in tempo reale, il set di dati deve essere un sottoinsieme del set di dati di input. L'endpoint in tempo reale ha una dimensione dei dati di input di circa 6 MB e un limite di timeout di risposta di 60 secondi. Ti consigliamo di portare uno o più articoli alla volta.

Puoi utilizzarlo SageMaker APIs per recuperare il miglior candidato di un lavoro AutoML e quindi creare SageMaker un endpoint AI utilizzando quel candidato.

In alternativa, puoi scegliere l'opzione di implementazione automatica durante la creazione dell'esperimento Autopilot. Per informazioni sulla configurazione dell'implementazione automatica dei modelli, consulta [Come abilitare l'implementazione automatica](autopilot-create-experiment-timeseries-forecasting.md#timeseries-forecasting-auto-model-deployment).

**Per creare un endpoint SageMaker AI utilizzando il tuo miglior candidato modello:**

1. 

**Recupera i dettagli del processo AutoML.**

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere i dettagli del job AutoML, incluse le informazioni sul miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. 

**Estrai la definizione del contenitore da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers)per il miglior modello candidato.**

   Una definizione di contenitore è l'ambiente containerizzato utilizzato per ospitare il modello di SageMaker intelligenza artificiale addestrato per fare previsioni.

   ```
   BEST_CANDIDATE=$(aws sagemaker describe-auto-ml-job-v2 \
     --auto-ml-job-name job-name 
     --region region \
     --query 'BestCandidate.InferenceContainers[0]' \
     --output json
   ```

   Questo comando estrae la definizione di container per il miglior modello candidato e la archivia nella variabile `BEST_CANDIDATE`.

1. 

**Crea un modello di SageMaker intelligenza artificiale utilizzando la migliore definizione di contenitore candidata.**

   Utilizza le definizioni dei contenitori dei passaggi precedenti per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API.

   ```
   aws sagemaker create-model \
               --model-name 'your-candidate-name>' \
               --primary-container "$BEST_CANDIDATE"
               --execution-role-arn 'execution-role-arn>' \
               --region 'region>
   ```

   Il `--execution-role-arn` parametro specifica il ruolo IAM che l' SageMaker IA assume quando utilizza il modello per l'inferenza. Per i dettagli sulle autorizzazioni richieste per questo ruolo, consulta [CreateModel API:](https://docs.aws.amazon.com/) Execution Role Permissions.

1. 

**Crea una configurazione di endpoint SageMaker AI utilizzando il modello.**

   Il AWS CLI comando seguente utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.

   ```
   aws sagemaker create-endpoint-config \
     --production-variants file://production-variants.json \
     --region 'region'
   ```

   Dove il file `production-variants.json` contiene la configurazione del modello, inclusi il nome del modello e il tipo di istanza.
**Nota**  
È consigliabile utilizzare le istanze [m5.12xlarge](https://aws.amazon.com/ec2/instance-types/m5/) per le previsioni in tempo reale.

   ```
   [
       {
         "VariantName": "variant-name",
         "ModelName": "model-name",
         "InitialInstanceCount": 1,
         "InstanceType": "m5.12xlarge"
       }
     ]
   }
   ```

1. 

**Crea l'endpoint SageMaker AI utilizzando la configurazione dell'endpoint.**

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint \
               --endpoint-name 'endpoint-name>' \
               --endpoint-config-name 'endpoint-config-name' \
               --region 'region'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint di inferenza in tempo reale utilizzando l'API. [DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html) Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint \
               --endpoint-name 'endpoint-name' \
               --region 'region'
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l’endpoint è pronto per l’uso per l’inferenza in tempo reale.

1. 

**Invoca l'endpoint SageMaker AI per fare previsioni.**

   ```
   aws sagemaker invoke-endpoint \
               --endpoint-name 'endpoint-name' \ 
               --region 'region' \
               --body file://input-data-in-bytes.json \
               --content-type 'application/json' outfile
   ```

   Dove il file `input-data-in-bytes.json` contiene i dati di input per la previsione.

# Previsione in batch
<a name="timeseries-forecasting-batch"></a>

La previsione in batch, nota anche come inferenza offline, genera previsioni di modelli su un batch di osservazioni. L’inferenza in batch è una buona opzione per set di dati di grandi dimensioni o se non è necessaria una risposta immediata a una richiesta di previsione del modello.

Al contrario, l'inferenza online (inferenza in tempo reale) genera previsioni in tempo reale. 

È possibile SageMaker APIs utilizzarlo per recuperare il miglior candidato di un lavoro AutoML e quindi inviare un batch di dati di input per l'inferenza utilizzando quel candidato.

1. 

**Recupera i dettagli del processo AutoML.**

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere i dettagli del job AutoML, incluse le informazioni sul miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. 

**Estrai la definizione del contenitore da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers)per il miglior modello candidato.**

   Una definizione di contenitore è l'ambiente containerizzato utilizzato per ospitare il modello di SageMaker intelligenza artificiale addestrato per fare previsioni.

   ```
   BEST_CANDIDATE=$(aws sagemaker describe-auto-ml-job-v2 \
         --auto-ml-job-name job-name 
         --region region \
         --query 'BestCandidate.InferenceContainers[0]' \
         --output json
   ```

   Questo comando estrae la definizione di container per il miglior modello candidato e la archivia nella variabile `BEST_CANDIDATE`.

1. 

**Crea un modello di SageMaker intelligenza artificiale utilizzando la migliore definizione di contenitore candidata.**

   Utilizza le definizioni dei contenitori dei passaggi precedenti per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API.

   ```
   aws sagemaker create-model \
         --model-name 'model-name' \
         --primary-container "$BEST_CANDIDATE"
         --execution-role-arn 'execution-role-arn>' \
         --region 'region>
   ```

   Il `--execution-role-arn` parametro specifica il ruolo IAM che l' SageMaker IA assume quando utilizza il modello per l'inferenza. Per i dettagli sulle autorizzazioni richieste per questo ruolo, consulta [CreateModel API:](https://docs.aws.amazon.com/) Execution Role Permissions.

1. 

**Crea un processo di trasformazione in batch.**

   L'esempio seguente crea un processo di trasformazione utilizzando l'[CreateTransformJob](https://docs.aws.amazon.com/cli/latest/reference/sagemaker/create-transform-job.html)API. 

   ```
   aws sagemaker create-transform-job \ 
          --transform-job-name 'transform-job-name' \
          --model-name 'model-name'\
          --transform-input file://transform-input.json \
          --transform-output file://transform-output.json \
          --transform-resources file://transform-resources.json \
          --region 'region'
   ```

   I dettagli di input, output e risorse sono definiti in file JSON separati:
   + `transform-input.json`:

     ```
     {
       "DataSource": {
         "S3DataSource": {
           "S3DataType": "S3Prefix",
           "S3Uri": "s3://my-input-data-bucket/path/to/input/data"
         }
       },
       "ContentType": "text/csv",
       "SplitType": "None"
     }
     ```
   + `transform-output.json`:

     ```
     {
       "S3OutputPath": "s3://my-output-bucket/path/to/output",
       "AssembleWith": "Line"
     }
     ```
   + `transform-resources.json`:
**Nota**  
È consigliabile utilizzare istanze [m5.12xlarge](https://aws.amazon.com/ec2/instance-types/m5/) per carichi di lavoro generici e istanze `m5.24xlarge` per attività di previsione dei big data.

     ```
     {
       "InstanceType": "instance-type",
       "InstanceCount": 1
     }
     ```

1. 

**Monitora lo stato di avanzamento del processo di trasformazione utilizzando l'[DescribeTransformJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeTransformJob.html)API.**

   Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-transform-job \
         --transform-job-name 'transform-job-name' \
         --region region
   ```

1. 

**Recupera l’output della trasformazione in batch.**

   Al termine del processo, il risultato previsto è disponibile in `S3OutputPath`. 

   Il nome file di output presenta il formato seguente: `input_data_file_name.out`. Ad esempio, se il file di input è `text_x.csv`, il nome di output sarà `text_x.csv.out`.

   ```
   aws s3 ls s3://my-output-bucket/path/to/output/
   ```

I seguenti esempi di codice illustrano l'uso dell' AWS SDK per Python (boto3) e per la previsione in batch. AWS CLI 

------
#### [ AWS SDK for Python (boto3) ]

 L’esempio seguente utilizza **AWS SDK per Python (boto3)** per fare previsioni in batch.

```
import sagemaker 
import boto3

session = sagemaker.session.Session()

sm_client = boto3.client('sagemaker', region_name='us-west-2')
role = 'arn:aws:iam::1234567890:role/sagemaker-execution-role'
output_path = 's3://test-auto-ml-job/output'
input_data = 's3://test-auto-ml-job/test_X.csv'

best_candidate = sm_client.describe_auto_ml_job_v2(AutoMLJobName=job_name)['BestCandidate']
best_candidate_containers = best_candidate['InferenceContainers']
best_candidate_name = best_candidate['CandidateName']

# create model
reponse = sm_client.create_model(
    ModelName = best_candidate_name,
    ExecutionRoleArn = role,
    Containers = best_candidate_containers 
)

# Lauch Transform Job
response = sm_client.create_transform_job(
    TransformJobName=f'{best_candidate_name}-transform-job',
    ModelName=model_name,
    TransformInput={
        'DataSource': {
            'S3DataSource': {
                'S3DataType': 'S3Prefix',
                'S3Uri': input_data
            }
        },
        'ContentType': "text/csv",
        'SplitType': 'None'
    },
    TransformOutput={
        'S3OutputPath': output_path,
        'AssembleWith': 'Line',
    },
    TransformResources={
        'InstanceType': 'ml.m5.2xlarge',
        'InstanceCount': 1,
    },
)
```

Il processo di inferenza batch restituisce una risposta nel formato seguente.

```
{'TransformJobArn': 'arn:aws:sagemaker:us-west-2:1234567890:transform-job/test-transform-job',
 'ResponseMetadata': {'RequestId': '659f97fc-28c4-440b-b957-a49733f7c2f2',
  'HTTPStatusCode': 200,
  'HTTPHeaders': {'x-amzn-requestid': '659f97fc-28c4-440b-b957-a49733f7c2f2',
   'content-type': 'application/x-amz-json-1.1',
   'content-length': '96',
   'date': 'Thu, 11 Aug 2022 22:23:49 GMT'},
  'RetryAttempts': 0}}
```

------
#### [ AWS Command Line Interface (AWS CLI) ]

1. **Ottieni le definizioni dei container di miglior candidati**

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name 'test-automl-job' --region us-west-2
   ```

1. **Crea il modello**.

   ```
   aws sagemaker create-model --model-name 'test-sagemaker-model'
   --containers '[{
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3",
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/data-processor-models/test-job1-dpp0-1-e569ff7ad77f4e55a7e549a/output/model.tar.gz",
       "Environment": {
           "AUTOML_SPARSE_ENCODE_RECORDIO_PROTOBUF": "1",
           "AUTOML_TRANSFORM_MODE": "feature-transform",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "application/x-recordio-protobuf",
           "SAGEMAKER_PROGRAM": "sagemaker_serve",
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code"
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-xgboost:1.3-1-cpu-py3",
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/tuning/flicdf10v2-dpp0-xgb/test-job1E9-244-7490a1c0/output/model.tar.gz",
       "Environment": {
           "MAX_CONTENT_LENGTH": "20971520",
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv",
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,probabilities" 
       }
   }, {
       "Image": "348316444620.dkr.ecr.us-west-2.amazonaws.com/sagemaker-sklearn-automl:2.5-1-cpu-py3", 
       "ModelDataUrl": "s3://amzn-s3-demo-bucket/out/test-job1/data-processor-models/test-job1-dpp0-1-e569ff7ad77f4e55a7e549a/output/model.tar.gz", 
       "Environment": { 
           "AUTOML_TRANSFORM_MODE": "inverse-label-transform", 
           "SAGEMAKER_DEFAULT_INVOCATIONS_ACCEPT": "text/csv", 
           "SAGEMAKER_INFERENCE_INPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_OUTPUT": "predicted_label", 
           "SAGEMAKER_INFERENCE_SUPPORTED": "predicted_label,probability,labels,probabilities", 
           "SAGEMAKER_PROGRAM": "sagemaker_serve", 
           "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code" 
       } 
   }]' \
   --execution-role-arn 'arn:aws:iam::1234567890:role/sagemaker-execution-role' \
   --region 'us-west-2'
   ```

1. **Crea un processo di trasformazione**.

   ```
   aws sagemaker create-transform-job --transform-job-name 'test-tranform-job'\
    --model-name 'test-sagemaker-model'\
    --transform-input '{
           "DataSource": {
               "S3DataSource": {
                   "S3DataType": "S3Prefix",
                   "S3Uri": "s3://amzn-s3-demo-bucket/data.csv"
               }
           },
           "ContentType": "text/csv",
           "SplitType": "None"
       }'\
   --transform-output '{
           "S3OutputPath": "s3://amzn-s3-demo-bucket/output/",
           "AssembleWith": "Line"
       }'\
   --transform-resources '{
           "InstanceType": "ml.m5.2xlarge",
           "InstanceCount": 1
       }'\
   --region 'us-west-2'
   ```

1. **Controlla lo stato di avanzamento del processo di trasformazione**. 

   ```
   aws sagemaker describe-transform-job --transform-job-name  'test-tranform-job' --region us-west-2
   ```

   Di seguito è riportata la risposta del processo di trasformazione.

   ```
   {
       "TransformJobName": "test-tranform-job",
       "TransformJobArn": "arn:aws:sagemaker:us-west-2:1234567890:transform-job/test-tranform-job",
       "TransformJobStatus": "InProgress",
       "ModelName": "test-model",
       "TransformInput": {
           "DataSource": {
               "S3DataSource": {
                   "S3DataType": "S3Prefix",
                   "S3Uri": "s3://amzn-s3-demo-bucket/data.csv"
               }
           },
           "ContentType": "text/csv",
           "CompressionType": "None",
           "SplitType": "None"
       },
       "TransformOutput": {
           "S3OutputPath": "s3://amzn-s3-demo-bucket/output/",
           "AssembleWith": "Line",
           "KmsKeyId": ""
       },
       "TransformResources": {
           "InstanceType": "ml.m5.2xlarge",
           "InstanceCount": 1
       },
       "CreationTime": 1662495635.679,
       "TransformStartTime": 1662495847.496,
       "DataProcessing": {
           "InputFilter": "$",
           "OutputFilter": "$",
           "JoinSource": "None"
       }
   }
   ```

   Dopo che `TransformJobStatus` cambia in `Completed`, puoi controllare il risultato dell’inferenza in `S3OutputPath`.

------

# Notebook per l'esplorazione dei dati Amazon SageMaker Autopilot
<a name="timeseries-forecasting-data-exploration-notebook"></a>

Amazon SageMaker Autopilot pulisce e preelabora automaticamente il set di dati. Per aiutare gli utenti a comprendere i propri dati, scoprire modelli, relazioni e anomalie nelle serie temporali, SageMaker Amazon Autopilot genera **un report statico di esplorazione dei dati** sotto forma di notebook a cui gli utenti possono fare riferimento.

Per ogni processo di Autopilot viene generato un notebook di esplorazione dei dati. Il report è archiviato in un bucket Amazon S3 ed è accessibile dal percorso di output del processo.

È possibile trovare il prefisso Amazon S3 del notebook di esplorazione dei dati nella risposta a`[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[AutoMLJobArtifacts.DataExplorationNotebookLocation](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html#sagemaker-DescribeAutoMLJobV2-response-AutoMLJobArtifacts)`.

# Report generati da Amazon SageMaker Autopilot
<a name="timeseries-forecasting-reports"></a>

Oltre al notebook per l'esplorazione dei dati, Autopilot genera vari report per il miglior modello candidato di ogni esperimento.
+ Un report sulla spiegabilità fornisce informazioni su come il modello elabora le previsioni. 
+ Un report sulle prestazioni fornisce una valutazione quantitativa delle capacità di previsione del modello.
+ Un report sui risultati del backtest viene generato dopo aver testato le prestazioni del modello su dati storici. 

## Report di spiegabilità
<a name="timeseries-forecasting-explainability-report"></a>

Il report sulla spiegabilità di Autopilot ti aiuta a capire meglio in che modo gli attributi dei tuoi set di dati influiscono sulle previsioni per serie temporali specifiche (combinazioni di elementi e dimensioni) e punti temporali. Autopilot utilizza un parametro chiamato *Punteggi di impatto* per quantificare l'impatto relativo di ciascun attributo e determinare se aumenta o diminuisce i valori di previsione.

Ad esempio, si consideri uno scenario di previsione in cui l'obiettivo è `sales` e vi sono due attributi correlati: `price` e `color` Autopilot può rilevare che il colore dell'articolo ha un impatto elevato sulle vendite di determinati articoli, ma un effetto trascurabile per altri articoli. È inoltre possibile che una promozione in estate abbia un forte impatto sulle vendite, ma una promozione in inverno abbia scarso effetto.

Il report sulla spiegabilità viene generato solo quando:
+ Il set di dati delle serie temporali include colonne di funzionalità aggiuntive o è associato a un calendario delle festività.
+ I modelli base CNN-QR e DeepAr\$1 sono inclusi nell'insieme finale.

### Interpretare i punteggi di impatto
<a name="timeseries-forecasting-explainability-impact-scores"></a>

I punteggi di impatto misurano l'impatto relativo degli attributi sui valori di previsione. Ad esempio, se l'attributo `price` ha un punteggio di impatto doppio rispetto all'attributo `store location`, puoi concludere che il prezzo di un articolo ha un impatto doppio sui valori di previsione rispetto all'ubicazione del negozio.

I punteggi di impatto forniscono anche informazioni sul fatto che gli attributi aumentino o diminuiscano i valori di previsione.

I punteggi di impatto vanno da -1 a 1, dove il segno indica la direzione dell'impatto. Un punteggio pari a 0 indica nessun impatto, mentre i punteggi vicini a 1 o -1 indicano un impatto significativo.

È importante notare che i punteggi di impatto misurano l'impatto relativo degli attributi, non l'impatto assoluto. Pertanto, i punteggi di impatto non possono essere utilizzati per determinare se determinati attributi migliorano la precisione del modello. Se un attributo ha un punteggio di impatto basso, ciò non significa necessariamente che abbia un impatto basso sui valori di previsione; significa che ha un impatto inferiore sui valori di previsione rispetto ad altri attributi utilizzati dal predittore.

### Trova il report di spiegabilità
<a name="timeseries-forecasting-explainability-report-location"></a>

Puoi trovare il prefisso Amazon S3 per gli artefatti di spiegabilità generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.Explainability](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-Explainability)`.

## Report sulle prestazioni del modello
<a name="timeseries-forecasting-model-performance-report"></a>

Un report sulla qualità del modello Autopilot (noto anche come report sulle prestazioni) fornisce approfondimenti e informazioni sulla qualità per il miglior modello candidato (miglior predittore) generato da un processo AutoML. Ciò include informazioni sui dettagli del processo, sulla funzione oggettiva e sulle metriche di precisione (`wQL`, `MAPE`, `WAPE`, `RMSE`, `MASE`).

Puoi trovare il prefisso Amazon S3 per gli artefatti del report sulla qualità del modello generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.ModelInsights](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-ModelInsights)`.

## Report sui risultati dei backtest
<a name="timeseries-forecasting-model-backtest-report"></a>

I risultati dei backtest forniscono informazioni sulle prestazioni di un modello di previsione di serie temporali valutandone l'accuratezza e l'affidabilità predittive. Aiuta analisti e data scientist a valutare le sue prestazioni su dati storici e aiuta a comprenderne le potenziali prestazioni su dati futuri non visibili.

Autopilot utilizza il backtest per regolare i parametri e produrre metriche di precisione. Durante i backtest, Autopilot divide automaticamente i dati delle serie temporali in due set, un set di addestramento e un set di test. Il set di addestramento viene utilizzato per addestrare un modello che viene poi utilizzato per generare previsioni per i punti dati del set di test. Autopilot utilizza questo set di dati di test per valutare l'accuratezza del modello confrontando i valori previsti con i valori osservati nel set di test.

Puoi trovare il prefisso Amazon S3 per gli artefatti del report sulla qualità del modello generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.BacktestResults](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-BacktestResults)`.

# Limiti delle risorse per la previsione delle serie temporali per Autopilot
<a name="timeseries-forecasting-limits"></a>

La tabella seguente elenca i limiti di risorse per i lavori di previsione di serie temporali in Amazon SageMaker Autopilot e indica se è possibile modificare o meno ciascun limite.


| **Limiti delle risorse** | **Limite predefinito** | **Regolabile** | 
| --- | --- | --- | 
|  Dimensione del set di dati di input  |  30 GB  |  Sì  | 
|  Dimensione di un singolo file Parquet  |  2 GB  |  No  | 
|  Numero massimo di righe in un set di dati  |  3 miliardi  |  Sì  | 
|  Numero massimo di colonne di raggruppamento  |  5  |  No  | 
|  Numero massimo di elementi numerici  |  13  |  No  | 
|  Numero massimo di elementi di categoria  |  10  |  No  | 
|  Numero massimo di serie temporali (combinazioni uniche di elementi e colonne di raggruppamento) per set di dati  |  5.000.000  |  Sì  | 
|  Orizzonte massimo di previsione  |  500  |  Sì  | 

# Creare un processo AutoML per eseguire il fine-tuning di modelli di generazione di testo utilizzando l’API
<a name="autopilot-create-experiment-finetune-llms"></a>

I modelli linguistici di grandi dimensioni (LLMs) eccellono in molteplici attività generative, tra cui la generazione di testo, il riepilogo, il completamento, la risposta alle domande e altro ancora. Le loro prestazioni possono essere attribuite alle loro dimensioni significative e al vasto addestramento su diversi set di dati e varie attività. Tuttavia, domini specifici, come l'assistenza sanitaria e i servizi finanziari, possono richiedere un'ottimizzazione personalizzata per adattarsi a dati e casi d'uso univoci. Adattando la loro formazione al loro settore specifico, LLMs possono migliorare le loro prestazioni e fornire risultati più accurati per applicazioni mirate.

Autopilot offre la capacità di mettere a punto una selezione di modelli di testo generativi preaddestrati. In particolare, Autopilot supporta la messa a **punto basata su istruzioni di una selezione di modelli di linguaggio di grandi dimensioni** per uso generico () basati su. LLMs JumpStart

**Nota**  
I modelli di generazione di testo che supportano la regolazione fine in Autopilot sono attualmente accessibili esclusivamente nelle regioni supportate da Canvas. SageMaker Consulta la documentazione di SageMaker Canvas per l'elenco [completo](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas.html) delle regioni supportate.

L'ottimizzazione di un modello già addestrato richiede un set di dati specifico di istruzioni chiare che guidino il modello su come generare risultati o comportarsi per quell'attività. Il modello impara dal set di dati, regolandone i parametri in base alle istruzioni fornite. Il fine-tuning basato su istruzioni implica l’utilizzo di esempi etichettati formattati come prompt, coppie di risposta e formulati come istruzioni. Per ulteriori informazioni sul fine-tuning, consulta la pagina relativa al [fine-tuning di un modello di fondazione](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-fine-tuning.html).

[Le seguenti linee guida descrivono il processo di creazione di un job Amazon SageMaker Autopilot come esperimento pilota per ottimizzare la generazione di testo utilizzando l'API Reference. LLMs SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html)

**Nota**  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.

Per creare un esperimento Autopilot a livello di codice per la messa a punto di un LLM, puoi chiamare l'API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)in qualsiasi lingua supportata da Amazon Autopilot o da. SageMaker AWS CLI

Per informazioni su come questa azione API si traduce in una funzione nella lingua preferita, consulta la sezione [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

**Nota**  
Autopilot perfeziona modelli linguistici di grandi dimensioni senza richiedere l'addestramento e la valutazione di più candidati. Invece, utilizzando i tuoi set di dati, Autopilot perfeziona direttamente il modello di destinazione per migliorare un parametro oggettivo predefinito, la perdita di entropia incrociata. L'ottimizzazione dei modelli linguistici in Autopilot non richiede l'impostazione del campo `AutoMLJobObjective`.

Una volta eseguito in fine-tuning dell’LLM, è possibile valutarne le prestazioni accedendo a vari punteggi ROUGE tramite `[BestCandidate](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateProperties.html#sagemaker-Type-CandidateProperties-CandidateMetrics)` durante una chiamata API `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)`. Il modello fornisce anche informazioni sul suo addestramento e la sua convalida, sulla perdita e perplessità. Per un elenco completo dei parametri di valutazione della qualità del testo generato dai modelli messi a punto, consulta [Parametri per l'ottimizzazione di modelli linguistici di grandi dimensioni in Autopilot](autopilot-llms-finetuning-metrics.md).

## Prerequisiti
<a name="autopilot-llms-finetuning-api-prerequisites"></a>

Prima di utilizzare Autopilot per creare un esperimento di ottimizzazione dell'intelligenza artificiale, assicurati di eseguire i seguenti passaggi: SageMaker 
+ (Facoltativo) Scegli il modello preaddestrato che desideri perfezionare.

  Per l'elenco dei modelli preaddestrati disponibili per la messa a punto in SageMaker Amazon Autopilot, consulta. [Modelli linguistici di grandi dimensioni supportati per l'ottimizzazione](autopilot-llms-finetuning-models.md) *La selezione di un modello non è obbligatoria; se non viene specificato alcun modello, Autopilot passa automaticamente al modello Falcon7. BInstruct*
+ Creazione di un set di istruzioni. Consulta [Tipi di file del set di dati e formato dei dati di input](autopilot-llms-finetuning-data-format.md) per sapere di più sui requisiti di formato del tuo set di dati basato sulle istruzioni.
+ Inserisci il tuo set di dati in un bucket Amazon S3.
+ Concedi l'accesso completo al bucket Amazon S3 contenente i dati di input per il ruolo di esecuzione dell' SageMaker IA utilizzato per eseguire l'esperimento.
  + Per informazioni sul recupero del ruolo di esecuzione dell' SageMaker IA, consulta. [Acquisizione del ruolo di esecuzione](sagemaker-roles.md#sagemaker-roles-get-execution-role)
  + Per informazioni sulla concessione delle autorizzazioni per il ruolo di esecuzione SageMaker AI per accedere a uno o più bucket specifici in Amazon S3, consulta Aggiungere ulteriori *autorizzazioni Amazon S3* a un ruolo di esecuzione AI in. SageMaker [Crea ruolo di esecuzione](sagemaker-roles.md#sagemaker-roles-create-execution-role)
+ Inoltre, dovresti fornire al tuo ruolo di esecuzione le autorizzazioni necessarie per accedere al bucket di storage predefinito utilizzato da Amazon S3. JumpStart Questo accesso è necessario per archiviare e recuperare gli artefatti del modello pre-addestrati in. JumpStart Per concedere l'accesso a questo bucket Amazon S3, devi creare una nuova policy personalizzata in linea sul tuo ruolo di esecuzione.

  Ecco un esempio di policy che è possibile utilizzare nell’editor JSON durante la configurazione di processi di fine-tuning di AutoML in `us-west-2`:

  *JumpStarti nomi dei bucket seguono uno schema predeterminato che dipende da. Regioni AWS Di conseguenza è necessario modificare il nome del bucket.* 

  ```
  {
      "Sid": "Statement1",
      "Effect": "Allow",
      "Action": [
          "s3:GetObject",
          "s3:PutObject",
          "s3:ListBucket"
      ],
      "Resource": [
          "arn:aws:s3:::jumpstart-cache-prod-us-west-2",
          "arn:aws:s3:::jumpstart-cache-prod-us-west-2/*"
      ]
  }
  ```

Fatto ciò, è possibile utilizzare l'ARN di questo ruolo di esecuzione nelle richieste API Autopilot.

## Parametri obbligatori
<a name="autopilot-llms-finetuning-api-required-params"></a>

Durante una chiamata a `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per il fine-tuning degli LLM, è necessario fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo. Il nome deve essere di tipo `string` con una lunghezza minima di 1 carattere e una lunghezza massima di 32.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` del tipo `training` incluso in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)`. Questo canale specifica il nome del bucket Amazon S3 in cui è archiviato il set di dati per l'ottimizzazione dei processi. Hai la possibilità di definire un canale `validation`. Se non viene fornito alcun canale di convalida e un `ValidationFraction` è configurato in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html), questa frazione viene utilizzata per dividere casualmente il set di dati di addestramento in set di addestramento e convalida. Inoltre, per il set di dati è possibile specificare il tipo di contenuto (file CSV o Parquet).
+ Un `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)` del tipo `[TextGenerationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html)` per configurare le impostazioni del job di addestramento.

  In particolare, è possibile specificare il nome del modello base da ottimizzare nel campo `BaseModelName`. Per l'elenco dei modelli preaddestrati disponibili per la messa a punto in SageMaker Amazon Autopilot, consulta. [Modelli linguistici di grandi dimensioni supportati per l'ottimizzazione](autopilot-llms-finetuning-models.md)
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

Di seguito è riportato un esempio del formato di richiesta completo utilizzato quando si effettua una chiamata API a `CreateAutoMLJobV2` per il fine-tuning di un modello (`Falcon7BInstruct`).

```
{
   "AutoMLJobName": "<job_name>",
   "AutoMLJobInputDataConfig": [ 
      { 
         "ChannelType": "training",
         "CompressionType": "None",
         "ContentType": "text/csv", 
         "DataSource": { 
            "S3DataSource": { 
               "S3DataType": "S3Prefix",
               "S3Uri": "s3://<bucket_name>/<input_data>.csv"
            }
         }
      }
   ],
  "OutputDataConfig": {
      "S3OutputPath": "s3://<bucket_name>/output",
      "KmsKeyId": "arn:aws:kms:<region>:<account_id>:key/<key_value>"
   },
   "RoleArn":"arn:aws:iam::<account_id>:role/<sagemaker_execution_role_name>",
   "AutoMLProblemTypeConfig": {
        "TextGenerationJobConfig": {
            "BaseModelName": "Falcon7BInstruct"
       }
   }
}
```

Tutti gli altri parametri sono facoltativi.

## Parametri facoltativi
<a name="autopilot-llms-finetuning-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri facoltativi che è possibile passare al processo AutoML di ottimizzazione.

### Come specificare i set di dati di addestramento e convalida di un processo AutoML
<a name="autopilot-llms-finetuning-data-training-or-validation"></a>

È possibile fornire il proprio set di dati di convalida e un rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati.

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)oggetto (vedi il parametro obbligatorio [Auto MLJob InputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come utilizzare i dati durante la creazione di un modello di apprendimento automatico.

È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida. Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati. 
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLJobChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

### Come abilitare l'implementazione automatica
<a name="autopilot-llms-finetuning-auto-model-deployment"></a>

Autopilot consente di implementare automaticamente un modello ottimizzato con fine-tuning su un endpoint. Per abilitare l'implementazione automatica sul tuo modello ottimizzato, includi un `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nella richiesta di processo di AutoML. Ciò consente l'implementazione del modello ottimizzato su un SageMaker endpoint di intelligenza artificiale. Di seguito sono riportate le configurazioni disponibili per la personalizzazione.
+ Per consentire ad Autopilot di generare il nome dell'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)` su `True`.
+ Per fornire il tuo nome per l'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents) to False and provide a name of your choice in [EndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)`.

### Come impostare l’accettazione dell’EULA durante il fine-tuning di un modello utilizzando l’API AutoML
<a name="autopilot-llms-finetuning-set-eula"></a>

Per i modelli che richiedono l’accettazione di un contratto di licenza con l’utente finale prima del fine-tuning, è possibile accettare l’EULA impostando l’attributo `AcceptEula` di `[ModelAccessConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelAccessConfig.html)` su `True` in `[TextGenerationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html)` durante la configurazione di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

### Come impostare gli iperparametri per ottimizzare il processo di apprendimento di un modello
<a name="autopilot-llms-finetuning-set-hyperparameters"></a>

È possibile ottimizzare il processo di apprendimento del modello di generazione del testo impostando i valori degli iperparametri nell’attributo `TextGenerationHyperParameters` di `[TextGenerationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html)` durante la configurazione di `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)`.

Autopilot consente l’impostazione di quattro iperparametri comuni per tutti i modelli.
+ `epochCount`: il suo valore deve essere una stringa contenente un valore intero compreso nell’intervallo tra `1` e `10`.
+ `batchSize`: il suo valore deve essere una stringa contenente un valore intero compreso nell’intervallo tra `1` e `64`.
+ `learningRate`: il suo valore deve essere una stringa contenente un valore in virgola mobile compreso nell’intervallo tra `0` e `1`.
+ `learningRateWarmupSteps`: il suo valore deve essere una stringa contenente un valore intero compreso nell’intervallo tra `0` e `250`.

Per ulteriori dettagli su ciascun iperparametro, consulta [Iperparametri per ottimizzare il processo di apprendimento dei modelli di generazione di testo](autopilot-llms-finetuning-hyperparameters.md).

Il seguente esempio JSON mostra un `TextGenerationHyperParameters` campo passato al punto in TextGenerationJobConfig cui sono configurati tutti e quattro gli iperparametri.

```
"AutoMLProblemTypeConfig": {
  "TextGenerationJobConfig": {
    "BaseModelName": "Falcon7B",
    "TextGenerationHyperParameters": {"epochCount":"5", "learningRate":"0.000001", "batchSize": "32", "learningRateWarmupSteps": "10"}
  }
}
```

# Modelli linguistici di grandi dimensioni supportati per l'ottimizzazione
<a name="autopilot-llms-finetuning-models"></a>

Utilizzando l'API Autopilot, gli utenti possono perfezionare modelli linguistici di grandi dimensioni (LLMs) basati su Amazon. SageMaker JumpStart

**Nota**  
Per i modelli ottimizzati con fine-tuning che richiedono l’accettazione di un contratto di licenza con l’utente finale, è necessario dichiarare esplicitamente l’accettazione dell’EULA durante la creazione del processo AutoML. Dopo il fine-tuning di un modello preaddestrato, i pesi del modello originale cambiano, quindi non è necessario accettare successivamente un EULA quando si implementa il modello ottimizzato con fine-tuning.  
Per informazioni su come accettare l’EULA durante la creazione di un processo di fine-tuning utilizzando l’API AutoML, consulta [Come impostare l’accettazione dell’EULA durante il fine-tuning di un modello utilizzando l’API AutoML](autopilot-create-experiment-finetune-llms.md#autopilot-llms-finetuning-set-eula).

**Puoi trovare i dettagli completi di ogni modello cercando il tuo Model **ID nella seguente [tabella](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html#built-in-algorithms-with-pre-trained-model-table) dei JumpStart modelli** e poi seguendo il link nella colonna Source.** Questi dettagli possono includere i linguaggi supportati dal modello, i bias che può presentare, i set di dati utilizzati per il fine-tuning e altro ancora.

La tabella seguente elenca i JumpStart modelli supportati che è possibile ottimizzare con un job AutoML.


| JumpStart ID del modello | `BaseModelName` in richiesta API | Description | 
| --- | --- | --- | 
| huggingface-textgeneration-dolly-v2-3b-bf16 | Dolly3B |  Dolly 3B è un modello linguistico di grandi dimensioni che segue istruzioni da 2,8 miliardi di parametri ed è basato su [pythia-2.8b](https://huggingface.co/EleutherAI/pythia-2.8b#pythia-28b). È addestrato sul set di dati di ottimizzazione instruction/response fine [databricks-dolly-15k](https://huggingface.co/datasets/databricks/databricks-dolly-15k) e può eseguire attività tra cui brainstorming, classificazione, domande e risposte, generazione di testo, estrazione di informazioni e riepilogo.  | 
| huggingface-textgeneration-dolly-v2-7b-bf16 | Dolly7B |  Dolly 7B è un modello linguistico di grandi dimensioni che segue istruzioni da 6,9 miliardi di parametri ed è basato su [pythia-6.9b](https://huggingface.co/EleutherAI/pythia-6.9b). È addestrato sul set di dati di ottimizzazione instruction/response fine [databricks-dolly-15k](https://huggingface.co/datasets/databricks/databricks-dolly-15k) e può eseguire attività tra cui brainstorming, classificazione, domande e risposte, generazione di testo, estrazione e riepilogo di informazioni.  | 
| huggingface-textgeneration-dolly-v2-12b-bf16 | Dolly12B |  Dolly 12B è un modello linguistico di grandi dimensioni che segue istruzioni da 12 miliardi di parametri ed è basato su [pythia-12b](https://huggingface.co/EleutherAI/pythia-12b). È addestrato sul set di dati di ottimizzazione instruction/response fine [databricks-dolly-15k](https://huggingface.co/datasets/databricks/databricks-dolly-15k) e può eseguire attività tra cui brainstorming, classificazione, domande e risposte, generazione di testo, estrazione e riepilogo di informazioni.  | 
| huggingface-llm-falcon-7b-bf16 | Falcon7B |  Falcon 7B è un modello linguistico di grandi dimensioni causale da 7 miliardi di parametri ed è addestrato su 1.500 miliardi di token migliorati con corpora curati. Falcon-7B è addestrato solo su dati in inglese e francese e non si generalizza in modo appropriato ad altre lingue. Poiché il modello è stato addestrato su grandi quantità di dati web, include gli stereotipi e i bias comunemente presenti online.  | 
| huggingface-llm-falcon-7b-instruct-bf16 | Falcon7BInstruct |  Falcon 7B Instruct è un ampio modello di linguaggio causale da 7 miliardi di parametri basato su Falcon 7B e ottimizzato su una combinazione di set di dati da 250 milioni di token. chat/instruct Falcon 7B Instruct è addestrato principalmente su dati in inglese e non si generalizza in modo appropriato ad altre lingue. Inoltre, essendo addestrato su corpora su vasta scala rappresentativi del web, include gli stereotipi e i bias comunemente presenti online.  | 
| huggingface-llm-falcon-40b-bf16 | Falcon40B |  Falcon 40B è un modello linguistico di grandi dimensioni causale da 40 miliardi di parametri ed è addestrato su 1.000 miliardi di token migliorati con corpora curati. È addestrato principalmente in inglese, tedesco, spagnolo e francese, con capacità limitate in italiano, portoghese, polacco, olandese, rumeno, ceco e svedese. Non si generalizza in modo appropriato ad altre lingue. Inoltre, essendo addestrato su corpora su vasta scala rappresentativi del web, include gli stereotipi e i bias comunemente presenti online.  | 
| huggingface-llm-falcon-40b-instruct-bf16 | Falcon40BInstruct |  Falcon 40B Instruct è un modello linguistico di grandi dimensioni causale da 40 miliardi di parametri basato su Falcon40B e ottimizzato con fine-tuning su una combinazione di Baize. È addestrato principalmente su dati in inglese e francese e non si generalizza in modo appropriato ad altre lingue. Inoltre, essendo addestrato su corpora su vasta scala rappresentativi del web, include gli stereotipi e i bias comunemente presenti online.   | 
| huggingface-text2text-flan-t5-large | FlanT5L |  La famiglia di modelli [https://huggingface.co/docs/transformers/model_doc/t5](https://huggingface.co/docs/transformers/model_doc/t5) è costituita da un insieme di modelli linguistici di grandi dimensioni. Questo modelli sono ottimizzati con fine-tuning su molteplici attività e possono essere ulteriormente addestrati. I modelli sono adatti per attività quali la traduzione linguistica, la generazione di testi, il completamento di frasi, la disambiguazione del senso delle parole, il riepilogo o la risposta a domande. Flan T5 L è un modello linguistico di grandi dimensioni da 780 milioni di parametri addestrato su varie lingue. [Puoi trovare l'elenco delle lingue supportate da Flan T5 L nei dettagli del modello recuperati dalla ricerca per ID del modello nella tabella dei modelli. JumpStart](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html#built-in-algorithms-with-pre-trained-model-table)  | 
| huggingface-text2text-flan-t5-xl | FlanT5XL |  La famiglia di modelli [https://huggingface.co/docs/transformers/model_doc/t5](https://huggingface.co/docs/transformers/model_doc/t5) è costituita da un insieme di modelli linguistici di grandi dimensioni. Questo modelli sono ottimizzati con fine-tuning su molteplici attività e possono essere ulteriormente addestrati. I modelli sono adatti per attività quali la traduzione linguistica, la generazione di testi, il completamento di frasi, la disambiguazione del senso delle parole, il riepilogo o la risposta a domande. Flan T5 XL è un modello linguistico di grandi dimensioni da 3 miliardi di parametri addestrato su varie lingue. [Puoi trovare l'elenco delle lingue supportate da Flan T5 XL nei dettagli del modello recuperati dalla ricerca per ID del modello nella tabella dei modelli. JumpStart](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html#built-in-algorithms-with-pre-trained-model-table)  | 
| huggingface-text2text-flan-t5-xxll | FlanT5XXL |  La famiglia di modelli [https://huggingface.co/docs/transformers/model_doc/t5](https://huggingface.co/docs/transformers/model_doc/t5) è costituita da un insieme di modelli linguistici di grandi dimensioni. Questo modelli sono ottimizzati con fine-tuning su molteplici attività e possono essere ulteriormente addestrati. I modelli sono adatti per attività quali la traduzione linguistica, la generazione di testi, il completamento di frasi, la disambiguazione del senso delle parole, il riepilogo o la risposta a domande. Flan T5 XXL è un modello da 11 miliardi di parametri. [Puoi trovare l'elenco delle lingue supportate da Flan T5 XXL nei dettagli del modello recuperati dalla ricerca per ID del modello nella tabella dei modelli. JumpStart](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html#built-in-algorithms-with-pre-trained-model-table)  | 
| meta-textgeneration-llama-2-7b | Llama2-7B |  Llama 2 è una raccolta di modelli di testo generativi preaddestrati e ottimizzati con fine-tuning, compresi nell’intervallo tra 7 miliardi e 70 miliardi di parametri. Llama2-7B è il modello da 7 miliardi di parametri destinato all’uso in inglese e può essere adattato a una serie di attività di generazione del linguaggio naturale.  | 
| meta-textgeneration-llama-2-7b-f | Llama2-7BChat |  Llama 2 è una raccolta di modelli di testo generativi preaddestrati e ottimizzati con fine-tuning, compresi nell’intervallo tra 7 miliardi e 70 miliardi di parametri. Llama2-7B è il modello di chat da 7 miliardi di parametri ottimizzato per i casi d’uso di dialogo.  | 
| meta-textgeneration-llama-2-13b | Llama2-13B |  Llama 2 è una raccolta di modelli di testo generativi preaddestrati e ottimizzati con fine-tuning, compresi nell’intervallo tra 7 miliardi e 70 miliardi di parametri. Llama2-13B è il modello da 13 miliardi di parametri destinato all’uso in inglese e può essere adattato a una serie di attività di generazione del linguaggio naturale.  | 
| meta-textgeneration-llama-2-13b-f | Llama2-13BChat |  Llama 2 è una raccolta di modelli di testo generativi preaddestrati e ottimizzati con fine-tuning, compresi nell’intervallo tra 7 miliardi e 70 miliardi di parametri. Llama2-13B è il modello di chat da 13 miliardi di parametri ottimizzato per i casi d’uso di dialogo.  | 
| huggingface-llm-mistral-7b | Mistral7B |  Mistral 7B è un codice da sette miliardi di parametri e un modello generico di generazione di testi in inglese. Può essere utilizzato in numerosi casi d’uso, tra cui sintesi testuale, classificazione, completamento del testo o completamento del codice.  | 
| huggingface-llm-mistral-7b-instruct | Mistral7BInstruct |  Mistral 7B Instruct è la versione ottimizzata con fine-tuning di Mistral 7B per casi d’uso conversazionali. È stato specializzato utilizzando una serie di set di dati conversazionali pubblicamente disponibili in inglese.  | 
| huggingface-textgeneration1-mpt-7b-bf16 | MPT7B |  MPT 7B è un modello linguistico di grandi dimensioni con trasformatore in stile decoder da 6,7 miliardi di parametri, preaddestrato da zero su 1 trilione di token di testo e codice in inglese. È predisposto per gestire lunghe sequenze di contesto.  | 
| huggingface-textgeneration1-mpt-7b-instruct-bf16 | MPT7BInstruct |  MPT 7B Instruct è un modello per attività di esecuzione di istruzioni brevi. È stato realizzato eseguendo il fine-tuning di MPT 7B su un set di dati derivato da [databricks-dolly-15k](https://huggingface.co/datasets/databricks/databricks-dolly-15k) e dai set di dati di [Anthropic Helpful and Harmless (HH-RLHF)](https://huggingface.co/datasets/Anthropic/hh-rlhf).  | 

# Tipi di file del set di dati e formato dei dati di input
<a name="autopilot-llms-finetuning-data-format"></a>

La messa a punto basata sulle istruzioni utilizza set di dati etichettati per migliorare le prestazioni di quelli già addestrati su specifiche attività di elaborazione del linguaggio naturale (NLP). LLMs Gli esempi etichettati sono formattati come coppie prompt-risposta e formulati come istruzioni.



Per ulteriori informazioni sui tipi di file di set di dati supportati, vedere [Tipi di file di set di dati supportati](#autopilot-llms-finetuning-dataset-format).

Per ulteriori informazioni sul formato dei dati di input, vedere [Formato dei dati di input per l'ottimizzazione basata sulle istruzioni](#autopilot-llms-finetuning-input-format).

## Tipi di file di set di dati supportati
<a name="autopilot-llms-finetuning-dataset-format"></a>

Autopilot supporta set di dati con fine-tuning basato su istruzioni formattati come file CSV (impostazione predefinita) o come file Parquet.
+ **CSV** (Comma-Separated Values) è un formato di file basato su righe che archivia i dati in testo semplice leggibile dall’utente, una scelta diffusa per lo scambio di dati, poiché supportato da un’ampia gamma di applicazioni.
+ **Parquet** è un formato di file binario basato su colonne in cui i dati vengono archiviati ed elaborati in modo più efficiente rispetto ai formati di file leggibili dall’utente, ad esempio CSV. Ciò lo rende un’opzione migliore per i problemi relativi ai big data.

**Nota**  
Il set di dati può essere costituito da più file, ognuno dei quali deve aderire a un modello specifico. Per informazioni su come formattare i dati di input, vedi [Formato dei dati di input per l'ottimizzazione basata sulle istruzioni](#autopilot-llms-finetuning-input-format).

## Formato dei dati di input per l'ottimizzazione basata sulle istruzioni
<a name="autopilot-llms-finetuning-input-format"></a>

Ogni file del set di dati deve soddisfare il seguente formato:
+ Il set di dati deve contenere esattamente due colonne separate da virgole e denominate `input` e `output`. Autopilot non consente colonne aggiuntive. 
+ Le colonne `input` contengono i prompt e le corrispondenti `output` contengono la risposta prevista . Sia `input` che `output` sono in formato stringa.

L'esempio seguente illustra il formato dei dati di input per l'ottimizzazione in Autopilot basata sulle istruzioni.

```
input,output
"<prompt text>","<expected generated text>"
```

**Nota**  
Si consiglia di utilizzare set di dati con un minimo di 1000 righe per garantire l'apprendimento e le prestazioni ottimali del modello.

Inoltre, Autopilot imposta un limite massimo al numero di righe nel set di dati e alla lunghezza del contesto in base al tipo di modello utilizzato.
+ I limiti al numero di righe in un set di dati si applicano al conteggio cumulativo delle righe su tutti i file all’interno del set di dati, inclusi file multipli. Se sono definiti due [tipi di canale](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html) (uno per l’addestramento e uno per la convalida), il limite si applica al numero totale di righe su tutti i set di dati in entrambi i canali. Quando il numero di righe supera la soglia, il processo fallisce con un errore di convalida.
+ Quando la lunghezza dell'input o dell'output di una riga nel set di dati supera il limite impostato nel contesto del modello linguistico, viene automaticamente troncata. Se più del 60% delle righe del set di dati vengono troncate, sia di input che di output, Autopilot fallisce il processo con un errore di convalida.

La tabella seguente presenta tali limiti per ogni modello.


| JumpStart ID del modello | `BaseModelName` in richiesta API | Limite di righe | Limite di lunghezza del contesto | 
| --- | --- | --- | --- | 
| huggingface-textgeneration-dolly-v2-3b-bf16 | Dolly3B | 10.000 righe | 1.024 token | 
| huggingface-textgeneration-dolly-v2-7b-bf16 | Dolly7B | 10.000 righe | 1.024 token | 
| huggingface-textgeneration-dolly-v2-12b-bf16 | Dolly12B | 10.000 righe | 1.024 token | 
| huggingface-llm-falcon-7b-bf16 | Falcon7B | 1.000 righe | 1.024 token | 
| huggingface-llm-falcon-7b-instruct-bf16 | Falcon7BInstruct | 1.000 righe | 1.024 token | 
| huggingface-llm-falcon-40b-bf16 | Falcon40B | 10.000 righe | 1.024 token | 
| huggingface-llm-falcon-40b-instruct-bf16 | Falcon40BInstruct | 10.000 righe | 1.024 token | 
| huggingface-text2text-flan-t5-large | FlanT5L | 10.000 righe | 1.024 token | 
| huggingface-text2text-flan-t5-xl | FlanT5XL | 10.000 righe | 1.024 token | 
| huggingface-text2text-flan-t5-xxll | FlanT5XXL | 10.000 righe | 1.024 token | 
| meta-textgeneration-llama-2-7b | Llama2-7B | 10.000 righe | 2048 token | 
| meta-textgeneration-llama-2-7b-f | Llama2-7BChat | 10.000 righe | 2048 token | 
| meta-textgeneration-llama-2-13b | Llama2-13B | 7.000 righe | 2048 token | 
| meta-textgeneration-llama-2-13b-f | Llama2-13BChat | 7.000 righe | 2048 token | 
| huggingface-llm-mistral-7b | Mistral7B | 10.000 righe | 2048 token | 
| huggingface-llm-mistral-7b-instruct | Mistral7BInstruct | 10.000 righe | 2048 token | 
| huggingface-textgeneration1-mpt-7b-bf16 | MPT7B | 10.000 righe | 1.024 token | 
| huggingface-textgeneration1-mpt-7b-instruct-bf16 | MPT7BInstruct | 10.000 righe | 1.024 token | 

# Iperparametri per ottimizzare il processo di apprendimento dei modelli di generazione di testo
<a name="autopilot-llms-finetuning-hyperparameters"></a>

È possibile ottimizzare il processo di apprendimento del modello di base regolando qualsiasi combinazione dei seguenti iperparametri. Questi parametri sono ora disponibili per tutti i modelli.
+ **Conteggio di epoch**: l’iperparametro `epochCount` determina quante volte il modello analizza l’intero set di dati di addestramento. Influisce sulla durata dell’addestramento e può prevenire l’overfitting se impostato in modo appropriato. Un numero elevato di epoch può aumentare la durata complessiva dei processi di fine-tuning. È consigliabile impostare un valore ampio di `MaxAutoMLJobRuntimeInSeconds` in `CompletionCriteria` di `[TextGenerationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html)` per evitare che i processi di fine-tuning si interrompano prematuramente.
+ **Dimensione del batch**: l’iperparametro `batchSize` definisce il numero di campioni di dati utilizzati in ogni iterazione dell’addestramento. Può influire sulla velocità di convergenza e sull’utilizzo della memoria. Con batch di grandi dimensioni, aumenta il rischio di errori di memoria esaurita, che possono manifestarsi come un errore interno del server in Autopilot. Per verificare la presenza di tale errore, è possibile controllare nel gruppo di log `/aws/sagemaker/TrainingJobs` eventuali job di addestramento avviati dal job di Autopilot. È possibile accedere a tali registri CloudWatch dalla console di AWS gestione. Scegli **Log** e quindi il **gruppo di log** `/aws/sagemaker/TrainingJobs`. Per correggere gli errori di memoria esaurita, riduci la dimensione del batch.

  È consigliabile iniziare con una dimensione del batch pari a 1, quindi aumentarla in modo incrementale fino a quando non si verifica un errore di memoria esaurita. Come riferimento, il completamento di 10 epoch richiede in genere fino a 72 ore.
+ **Tasso di apprendimento**: l’iperparametro `learningRate` controlla la dimensione del passaggio con cui i parametri di un modello vengono aggiornati durante l’addestramento. Determina quanto la velocità con cui i parametri del modello vengono aggiornati durante l’addestramento. Un tasso di apprendimento elevato significa che i parametri vengono aggiornati con un passaggio significativo, il che può portare a una convergenza più rapida, ma può anche far sì che il processo di ottimizzazione superi la soluzione ottimale e diventi instabile. Un tasso di apprendimento ridotto significa che i parametri vengono aggiornati con un passaggio minore, il che può portare a una convergenza più stabile, ma con l’inconveniente di un apprendimento più lento.
+ **Fasi di riscaldamento del tasso di apprendimento**: l’`learningRateWarmupSteps`iperparametro specifica il numero di fasi di allenamento durante le quali il tasso di apprendimento aumenta gradualmente prima di raggiungere il valore di destinazione o massimo. Ciò consente al modello una convergenza più efficace, evitando problemi come divergenza o convergenza lenta che possono verificarsi con un tasso di apprendimento inizialmente elevato.

Per sapere di più su come regolare gli iperparametri per un esperimento di fine-tuning in Autopilot e scoprirne i possibili valori, consulta [Come impostare gli iperparametri per ottimizzare il processo di apprendimento di un modello](autopilot-create-experiment-finetune-llms.md#autopilot-llms-finetuning-set-hyperparameters).

# Parametri per l'ottimizzazione di modelli linguistici di grandi dimensioni in Autopilot
<a name="autopilot-llms-finetuning-metrics"></a>

La sezione seguente descrive le metriche che è possibile utilizzare per comprendere i modelli di linguaggio di grandi dimensioni ottimizzati (). LLMs Utilizzando un set di dati, Autopilot esegue direttamente il fine-tuning di un LLM di destinazione per migliorare una metrica oggettiva predefinita, la perdita di entropia incrociata.

La perdita di entropia incrociata è un parametro ampiamente utilizzato per valutare la differenza tra la distribuzione di probabilità prevista e la distribuzione effettiva delle parole nei dati di addestramento. Riducendo al minimo la perdita di entropia incrociata, il modello impara a fare previsioni più accurate e contestualmente pertinenti, in particolare nelle attività relative alla generazione di testo.

Dopo aver ottimizzato con fine-tuning un LLM, è possibile valutare la qualità del testo generato utilizzando una serie di punteggi ROUGE. Inoltre, è possibile analizzare le perplessità e le perdite di addestramento e convalida tra entropia incrociata come parte del processo di valutazione.
+ La perdita di perplessità misura la capacità del modello di prevedere la parola successiva in una sequenza di testo, mentre valori più bassi indicano una migliore comprensione della lingua e del contesto. 
+ Recall-Oriented Understudy for Gisting Evaluation (ROUGE) è un insieme di metriche utilizzate nel campo dell’elaborazione del linguaggio naturale (NLP) e del machine learning per valutare la qualità del testo generato automaticamente, come la sintesi testuale o la generazione di testo. Valuta principalmente le somiglianze tra il testo generato e il testo di riferimento (scritto dall’utente) di un set di dati di convalida. Le misure di ROUGE sono progettate per valutare vari aspetti della somiglianza del testo, tra cui la precisione e il richiamo degli n-grammi (sequenze di parole contigue) nei testi generati dal sistema e di riferimento. L'obiettivo è valutare la capacità di un modello di catturare le informazioni presenti nel testo di riferimento.

  Esistono diverse varianti di metriche ROUGE, a seconda del tipo di n-grammi utilizzati e degli aspetti specifici della qualità del testo da valutare.

  L’elenco seguente contiene il nome e la descrizione delle metriche ROUGE disponibili dopo il fine-tuning di modelli linguistici di grandi dimensioni in Autopilot.  
**`ROUGE-1`, `ROUGE-2`**  
ROUGE-N, la metrica ROUGE primaria, misura la sovrapposizione di n-grammi tra i testi generati dal sistema e quelli di riferimento. È possibile regolare ROUGE-N su diversi valori di `n` (qui `1` o `2`) per valutare il modo in cui il testo generato dal sistema acquisisce gli n-grammi dal testo di riferimento.  
**`ROUGE-L`**  
ROUGE-L (ROUGE-Longest Common Subsequence) calcola la sottosequenza comune più lunga tra il testo generato dal sistema e il testo di riferimento. Questa variante considera l'ordine delle parole oltre alla sovrapposizione dei contenuti.  
**`ROUGE-L-Sum`**  
ROUGE-L-SUM (Longest Common Subsequence for Summarization) è progettato per la valutazione di sistemi di sintesi testuale. Si concentra sulla misurazione della sottosequenza comune più lunga tra il riepilogo generato automaticamente e il riepilogo di riferimento. ROUGE-L-SUM tiene conto dell’ordine delle parole nel testo, importante nelle attività di sintesi testuale.

# Implementazione e previsioni del modello Autopilot
<a name="autopilot-llms-finetuning-deploy-models"></a>

Dopo aver eseguito il fine-tuning di un modello linguistico di grandi dimensioni (LLM), è possibile implementare il modello per la generazione di testo in tempo reale configurando un endpoint per ottenere previsioni interattive.

**Nota**  
Ti consigliamo di eseguire lavori di inferenza in tempo reale per migliorare le prestazioni `ml.g5.12xlarge`. In alternativa, le istanze `ml.g5.8xlarge` sono adatte per le attività di generazione di testo con Falcon-7B-Instruct e MPT-7B-Instruct.  
È possibile trovare le specifiche di queste istanze nella categoria [Elaborazione accelerata](https://aws.amazon.com/ec2/instance-types/) nella selezione dei tipi di istanza forniti da Amazon EC2.

## Generazione di testo in tempo reale
<a name="autopilot-llms-finetuning-realtime"></a>

Puoi utilizzarlo SageMaker APIs per distribuire manualmente il tuo modello ottimizzato su un endpoint di [inferenza in tempo reale con SageMaker AI Hosting, quindi iniziare a fare previsioni richiamando l'endpoint](https://docs.aws.amazon.com/sagemaker/latest/dg/realtime-endpoints.html) come segue.

**Nota**  
In alternativa, quando crei il tuo esperimento di ottimizzazione in Autopilot, puoi scegliere l'opzione di implementazione automatica. Per informazioni sulla configurazione dell'implementazione automatica dei modelli, consulta [Come abilitare l'implementazione automatica](autopilot-create-experiment-finetune-llms.md#autopilot-llms-finetuning-auto-model-deployment).   
Puoi anche usare SageMaker Python SDK e la `JumpStartModel` classe per eseguire inferenze con modelli ottimizzati da Autopilot. Ciò può essere fatto specificando una posizione personalizzata per l'artefatto del modello in Amazon S3. [Per informazioni sulla definizione del modello come modello e sulla distribuzione del modello per l'inferenza, JumpStart consulta Distribuzione a basso codice con la classe. JumpStartModel ](https://sagemaker.readthedocs.io/en/stable/overview.html#deploy-a-pre-trained-model-directly-to-a-sagemaker-endpoint)

1. **Ottieni le definizioni di container di inferenza candidati**

   [Puoi trovarlo `InferenceContainerDefinitions` all'interno dell'`BestCandidate`oggetto recuperato dalla risposta alla chiamata API V2. DescribeAuto MLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html#API_DescribeAutoMLJobV2_ResponseSyntax) Una definizione di container per inferenza si riferisce all'ambiente containerizzato progettato per implementare ed eseguire il modello addestrato per fare previsioni.

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere le definizioni di contenitore consigliate per il nome del processo.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Utilizza le definizioni dei contenitori del passaggio precedente per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio. Utilizza il `CandidateName` come nome del modello.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --primary-container '<container-definition' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint**

   Il seguente esempio di AWS CLI comando utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.
**Nota**  
Per evitare che la creazione dell'endpoint scada a causa di un lungo download del modello, consigliamo di impostare `ModelDataDownloadTimeoutInSeconds = 3600`e `ContainerStartupHealthCheckTimeoutInSeconds = 3600`.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' ModelDataDownloadTimeoutInSeconds=3600 ContainerStartupHealthCheckTimeoutInSeconds=3600 \
                       --region '<region>'
   ```

1. **Creare l'endpoint** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   Il seguente comando richiama l'endpoint per l'inferenza in tempo reale. Il prompt deve essere codificato in byte.
**Nota**  
Il formato del prompt di input dipende dal modello linguistico. Per ulteriori informazioni sul formato dei prompt per la generazione di testo, consulta [Formato di richiesta per l’inferenza in tempo reale dei modelli di generazione di testo](#autopilot-llms-finetuning-realtime-prompt-examples). 

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-promt-in-bytes>' [--content-type] 'application/json' <outfile>
   ```

## Formato di richiesta per l’inferenza in tempo reale dei modelli di generazione di testo
<a name="autopilot-llms-finetuning-realtime-prompt-examples"></a>

Diversi modelli di linguaggio di grandi dimensioni (LLMs) possono avere dipendenze software, ambienti di runtime e requisiti hardware specifici che influiscono sul contenitore consigliato da Autopilot per ospitare il modello per l'inferenza. Inoltre, ogni modello determina il formato dei dati di input richiesto e il formato previsto per le previsioni e gli output.

Ecco alcuni esempi di input per alcuni modelli e container consigliati.
+ Per i modelli Falcon con il container consigliato `huggingface-pytorch-tgi-inference:2.0.1-tgi1.0.3-gpu-py39-cu118-ubuntu20.04`:

  ```
  payload = {
      "inputs": "Large language model fine-tuning is defined as",
      "parameters": {
          "do_sample": false,
          "top_p": 0.9,
          "temperature": 0.1,
          "max_new_tokens": 128,
          "stop": ["<|endoftext|>", "</s>"]
      }
  }
  ```
+ Per tutti gli altri modelli con il container consigliato `djl-inference:0.22.1-fastertransformer5.3.0-cu118`:

  ```
  payload= {
      "text_inputs": "Large language model fine-tuning is defined as"
  }
  ```

# Creare un esperimento Autopilot di regressione o classificazione per dati tabulari utilizzando l’interfaccia utente di Studio Classic
<a name="autopilot-automate-model-development-create-experiment-ui"></a>

**Importante**  
A partire dal 30 novembre 2023, l'interfaccia utente di Autopilot sta migrando su [ SageMaker Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas.html) Canvas come parte dell'esperienza [Amazon SageMaker ](studio-updated.md) Studio aggiornata. SageMaker Canvas offre agli analisti e ai citizen data scientist funzionalità senza codice per attività come la preparazione dei dati, l'ingegneria delle funzionalità, la selezione degli algoritmi, la formazione e l'ottimizzazione, l'inferenza e altro ancora. Gli utenti possono sfruttare le visualizzazioni integrate e l’analisi ipotetica per esplorare i propri dati e diversi scenari, con previsioni automatizzate che consentono loro di produrre facilmente i propri modelli. Canvas supporta una varietà di casi d’uso, tra cui visione artificiale, previsione della domanda, Ricerca intelligente e IA generativa.  
 Gli utenti di [Amazon SageMaker Studio Classic](studio.md), l'esperienza precedente di [Studio](studio-updated.md), possono continuare a utilizzare l'interfaccia utente Autopilot in Studio Classic. Gli utenti con esperienza di programmazione possono continuare a utilizzare tutti i [riferimenti API](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html) in qualsiasi SDK supportato per l’implementazione tecnica.  
Se hai utilizzato Autopilot in Studio Classic fino ad ora e desideri migrare a SageMaker Canvas, potresti dover concedere autorizzazioni aggiuntive al tuo profilo utente o al tuo ruolo IAM in modo da poter creare e utilizzare l'applicazione Canvas. SageMaker Per ulteriori informazioni, consulta [(Facoltativo) Esegui la migrazione da Autopilot in Studio Classic a Canvas SageMaker](studio-updated-migrate-ui.md#studio-updated-migrate-autopilot).  
[Tutte le istruzioni relative all'interfaccia utente contenute in questa guida riguardano le funzionalità autonome di Autopilot prima della migrazione ad Amazon Canvas. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas.html) Gli utenti che seguono queste istruzioni devono utilizzare [Studio Classic](studio.md).

Puoi utilizzare l'interfaccia utente di Amazon SageMaker Studio Classic per creare esperimenti Autopilot per problemi di classificazione o regressione su dati tabulari. L’interfaccia utente consente di specificare il nome dell’esperimento, fornire posizioni per i dati di input e output e specificare quali dati di destinazione prevedere. Facoltativamente, è anche possibile specificare il tipo di problema da risolvere (regressione, classificazione, classificazione multiclasse), scegliere la strategia di modellazione (*ensemble impilati* oppure *ottimizzazione degli iperparametri*), selezionare l’elenco di algoritmi utilizzati dal processo Autopilot per addestrare i dati e altro ancora. 

L'interfaccia utente include descrizioni, interruttori, menu a discesa, pulsanti di opzione e altro per aiutarti a orientarti nella creazione dei tuoi modelli di candidati. Dopo l’esecuzione dell’esperimento, è possibile confrontare le prove e approfondire i dettagli delle fasi di pre-elaborazione, degli algoritmi e degli intervalli di iperparametri di ciascun modello. È inoltre possibile scaricare i relativi report sulla [spiegabilità](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-explainability.html) e sulle [prestazioni](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-insights.html). Utilizza i [notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-notebook-output.html ) forniti per visualizzare i risultati dell'esplorazione automatica dei dati o le definizioni dei modelli candidati.

 In alternativa, è possibile utilizzare l’API Autopilot AutoML in [Creare processi di regressione o classificazione per dati tabulari utilizzando l’API AutoML](autopilot-automate-model-development-create-experiment.md).

# Configura i parametri predefiniti di un esperimento Autopilot (per amministratori)
<a name="autopilot-set-default-parameters-create-experiment"></a>

Autopilot supporta l'impostazione di valori predefiniti per semplificare la configurazione di Amazon SageMaker Autopilot quando crei un esperimento Autopilot utilizzando l'interfaccia utente di Studio Classic. Gli amministratori possono utilizzare le [configurazioni del ciclo di vita](studio-lcc.md) (LCC) di Studio Classic per impostare i valori di infrastruttura, rete e sicurezza nei file di configurazione e precompilare le [impostazioni avanzate](autopilot-automate-model-development-create-experiment-ui.md#advanced-settings) dei processi `AutoML`.

In questo modo, possono controllare completamente la connettività di rete e le autorizzazioni di accesso per le risorse associate ad Amazon SageMaker Studio Classic, tra cui istanze SageMaker AI, fonti di dati, dati di output e altri servizi correlati. In particolare, gli amministratori possono configurare l’architettura di rete desiderata, come Amazon VPC, sottoreti e gruppi di sicurezza, per un dominio Studio Classic o profili utente individuali. I data scientist possono concentrarsi su parametri specifici della data science durante la creazione dei propri esperimenti Autopilot utilizzando l’interfaccia utente di Studio Classic. Inoltre, gli amministratori possono gestire la crittografia dei dati sull'istanza in cui vengono eseguiti gli esperimenti Autopilot impostando chiavi di crittografia predefinite.

**Nota**  
Questa funzionalità non è attualmente disponibile nelle Regioni Asia Pacifico (Hong Kong) e Medio Oriente (Bahrein).

Le sezioni seguenti contengono l’elenco completo dei parametri che supportano l’impostazione dei valori predefiniti durante la creazione di un esperimento Autopilot utilizzando l’interfaccia utente di Studio Classic, con una spiegazione su come impostare tali valori predefiniti.

**Topics**
+ [Elenco dei parametri predefiniti supportati](#autopilot-list-default-parameters-create-experiment)
+ [Imposta i parametri predefiniti dell'esperimento Autopilot](#autopilot-set-default-parameters-create-experiment-howto)

## Elenco dei parametri predefiniti supportati
<a name="autopilot-list-default-parameters-create-experiment"></a>

I seguenti parametri supportano l’impostazione di valori predefiniti con un file di configurazione per la creazione di un esperimento Autopilot utilizzando l’interfaccia utente di Studio Classic. Una volta impostati, i valori compilano automaticamente il campo corrispondente nella scheda **Crea esperimento** di Autopilot nell’interfaccia utente di Studio Classic. Consulta [Impostazioni avanzate (opzionale)](autopilot-automate-model-development-create-experiment-ui.md#advanced-settings) per una descrizione completa di ogni campo.
+ **Sicurezza:** Amazon VPC, sottoreti e gruppi di sicurezza di Amazon.
+ **Accesso: ruolo IAM.** AWS ARNs
+ **Crittografia:** AWS KMS chiave IDs.
+ **Tag:** coppie chiave-valore utilizzate per etichettare e organizzare le risorse SageMaker AI.

## Imposta i parametri predefiniti dell'esperimento Autopilot
<a name="autopilot-set-default-parameters-create-experiment-howto"></a>

Gli amministratori possono impostare valori predefiniti in un file di configurazione, quindi collocare manualmente il file in una posizione consigliata all’interno dell’ambiente Studio Classic di utenti specifici oppure possono passare il file a uno script di configurazione del ciclo di vita (LCC) per automatizzare la personalizzazione dell’ambiente Studio Classic di un determinato dominio o profilo utente.
+ Per configurare il file di configurazione, inizia inserendo i parametri predefiniti.

  Per configurare alcuni o tutti i valori predefiniti elencati in[Elenco dei parametri predefiniti supportati](#autopilot-list-default-parameters-create-experiment), gli amministratori possono creare un file di configurazione denominato `config.yaml`, la cui struttura deve corrispondere a questo [file di configurazione di esempio](https://sagemaker.readthedocs.io/en/stable/overview.html#configuration-file-structure). Il frammento seguente mostra un file di configurazione di esempio con tutti i parametri `AutoML` supportati. Per ulteriori informazioni sul formato di questo file, consulta lo [schema completo](https://github.com/aws/sagemaker-python-sdk/blob/master/src/sagemaker/config/config_schema.py).

  ```
  SchemaVersion: '1.0'
  SageMaker:
    AutoMLJob:
      # https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html
      AutoMLJobConfig:
        SecurityConfig:
          EnableInterContainerTrafficEncryption: true
          VolumeKmsKeyId: 'kms-key-id'
          VpcConfig:
            SecurityGroupIds:
              - 'security-group-id-1'
              - 'security-group-id-2'
            Subnets:
              - 'subnet-1'
              - 'subnet-2'
      OutputDataConfig:
        KmsKeyId: 'kms-key-id'
      RoleArn: 'arn:aws:iam::111222333444:role/Admin'
      Tags:
      - Key: 'tag_key'
        Value: 'tag_value'
  ```
+ Poi, posiziona il file di configurazione nella posizione consigliata [copiando manualmente il file](#autopilot-intelligent-defaults-manual-setup) nei percorsi consigliati o utilizzando una [configurazione del ciclo di vita](#autopilot-intelligent-defaults-lcc-setup) (LCC).

  Il file di configurazione deve essere presente in almeno una delle seguenti posizioni nell’ambiente Studio Classic dell’utente. Per impostazione predefinita, SageMaker AI cerca un file di configurazione in due posizioni:
  + Prima, in `/etc/xdg/sagemaker/config.yaml`. Ci riferiamo a questo file come al *file di configurazione dell'amministratore*.
  + Poi, in `/root/.config/sagemaker/config.yaml`. Ci riferiamo a questo file come al *file di configurazione utente*.

  Utilizzando il file di configurazione *dell'amministratore*, gli amministratori possono definire un set di valori predefiniti. Facoltativamente, possono utilizzare il file di configurazione *utente* per sovrascrivere i valori impostati nel file di configurazione dell'*amministratore* o impostare valori di parametri predefiniti aggiuntivi.

  Il frammento di codice seguente mostra uno script di esempio che scrive il file di configurazione dei parametri predefiniti nella posizione dell’*amministratore* nell’ambiente Studio Classic dell’utente. È possibile sostituire `/etc/xdg/sagemaker` con `/root/.config/sagemaker` per scrivere il file nella posizione dell'*utente*.

  ```
  ## Sample script with AutoML intelligent defaults
  #!/bin/bash
  
  sudo mkdir -p /etc/xdg/sagemaker
  
  echo "SchemaVersion: '1.0'
  CustomParameters:
    AnyStringKey: 'AnyStringValue'
  SageMaker:
    AutoMLJob:
      # https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html
      AutoMLJobConfig:
        SecurityConfig:
          EnableInterContainerTrafficEncryption: true
          VolumeKmsKeyId: 'kms-key-id'
          VpcConfig:
            SecurityGroupIds:
              - 'security-group-id-1'
              - 'security-group-id-2'
            Subnets:
              - 'subnet-1'
              - 'subnet-2'
      OutputDataConfig:
        KmsKeyId: 'kms-key-id'
      RoleArn: 'arn:aws:iam::111222333444:role/Admin'
      Tags:
      - Key: 'tag_key'
        Value: 'tag_value'
  " | sudo tee /etc/xdg/sagemaker/config.yaml
  ```
  + **Copia i file manualmente** - Per copiare i file di configurazione manualmente, esegui lo [script](#autopilot-intelligent-defaults-manual-setup) creato nella fase precedente da un terminale Studio Classic. In questo caso, il profilo utente che ha eseguito lo script può creare esperimenti Autopilot con i valori predefiniti applicabili solo a tali esperimenti.
  + **Crea una configurazione del ciclo di vita dell' SageMaker IA**: in alternativa, puoi utilizzare una [configurazione del ciclo](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc.html) di vita (LCC) per automatizzare la personalizzazione dell'ambiente Studio Classic. LCC sono script di shell attivati da eventi del ciclo di vita di Amazon SageMaker Studio Classic come l'avvio di un'applicazione Studio Classic. Questa personalizzazione include l'installazione di pacchetti personalizzati, la configurazione delle estensioni dei notebook, il precaricamento dei set di dati, la configurazione di repository di codice sorgente o, nel nostro caso, la precompilazione dei parametri predefiniti. Gli amministratori possono collegare LCC a un dominio Studio Classic per automatizzare la configurazione dei valori predefiniti di ogni profilo utente all’interno di tale dominio.

    Le sezioni seguenti descrivono in dettaglio come creare una configurazione del ciclo di vita in modo che gli utenti possano caricare automaticamente i parametri predefiniti Autopilot all’avvio di Studio Classic. Puoi scegliere di creare un LCC utilizzando la console AI o il. SageMaker AWS CLI

------
#### [ Create a LCC from the SageMaker AI Console ]

    Utilizza i seguenti passaggi per creare una scheda LCC contenente i parametri predefiniti, collegare la scheda LCC a un dominio o a un profilo utente, quindi avviare un'applicazione Studio Classic precompilata con i parametri predefiniti impostati dalla scheda LCC utilizzando la console AI. SageMaker 
    + **Per creare una configurazione del ciclo di vita che esegua lo [script contenente i valori predefiniti utilizzando la console](#autopilot-intelligent-defaults-script) AI SageMaker **
      + Apri la console SageMaker AI all'indirizzo. [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/)
      + Sul lato sinistro passa a **Configurazioni di amministrazione**, quindi a **Configurazioni del ciclo di vita**.
      + Dalla pagina **Configurazioni del ciclo di vita** passa alla scheda Studio Classic, quindi scegli **Crea configurazione**.
      + Per **Nome**, digita un nome utilizzando caratteri alfanumerici e "-", ma senza spazi. Un nome può contenere un massimo di 63 caratteri.
      + Incolla lo [script](#autopilot-intelligent-defaults-script) nella sezione **Script**.
      + Seleziona **Crea configurazione** per creare la configurazione del ciclo di vita. Viene creata una configurazione LCC di tipo `Kernel gateway app`.
    +  **Per collegare la configurazione del ciclo di vita a uno dominio Studio Classic, uno spazio o un profilo utente**

      Segui le fasi descritte in [Attach the lifecycle configuration to Studio Classic domain or user profile](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc-create-console.html#studio-lcc-create-console-step2) per collegare la configurazione LCC a un dominio Studio Classic o a un profilo utente specifico.
    +  **Per avviare l’applicazione Studio Classic con la configurazione del ciclo di vita**

      Una volta collegata la configurazione LCC a un dominio o a un profilo utente, gli utenti interessati possono avviare un’applicazione Studio Classic dalla pagina di destinazione di Studio Classic in Studio per ripristinare automaticamente le impostazioni predefinite impostate da LCC. Questa operazione compila automaticamente l’interfaccia utente di Studio Classic durante la creazione di un esperimento Autopilot.

------
#### [ Create a LCC from the AWS CLI ]

    Utilizza i seguenti frammenti di codice per avviare un’applicazione Studio Classic che esegue lo [script](#autopilot-intelligent-defaults-manual-setup) utilizzando l’ AWS CLI. Nota che `lifecycle_config.sh` è il nome assegnato allo script in questo esempio.

    Prima di iniziare:
    + Assicurati di aver effettuato l'aggiornamento e la configurazione AWS CLI completando i prerequisiti descritti in [Creare una configurazione del ciclo](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc-create-cli.html) di vita da. AWS CLI
    + Installa la documentazione [OpenSSL](https://www.openssl.org/source/). Il AWS CLI comando utilizza la libreria open source *OpenSSL* per codificare lo script in formato Base64. Questo requisito previene gli errori che si verificano con la spaziatura e la codifica delle interruzioni di riga.

    Ora è possibile seguire queste tre fasi:
    +  **Crea una nuova configurazione del ciclo di vita facendo riferimento allo script di configurazione `lifecycle_config.sh`**

      ```
      LCC_CONTENT=`openssl base64 -A -in lifecycle_config.sh`
      
      ## Create a new lifecycle config 
      aws sagemaker create-studio-lifecycle-config --region region \
      --studio-lifecycle-config-name lcc-name \
      --studio-lifecycle-config-content $LCC_CONTENT \
      --studio-lifecycle-config-app-type default
      ```

      Prendi nota dell’ARN (nome della risorsa Amazon) della configurazione del ciclo di vita appena creata che viene restitutio. L’ARN è richiesto per collegare la configurazione del ciclo di vita all'applicazione.
    +  **Collega la configurazione del ciclo di vita al tuo `JupyterServerApp`**

      Nell'esempio seguente viene illustrato come creare un nuovo profilo utente con una configurazione del ciclo di vita collegata. Per aggiornare un profilo utente esistente, usa il comando. AWS CLI [update-user-profile](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/sagemaker/update-user-profile.html) Per creare o aggiornare un dominio, consulta [create-domain](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/sagemaker/create-domain.html) e [update-domain](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/sagemaker/update-domain.html). Aggiungi l'ARN della configurazione del ciclo di vita della fase precedente alle impostazioni del tipo di applicazione `JupyterServerAppSettings`. Puoi aggiungere più configurazioni del ciclo di vita contemporaneamente utilizzando un elenco di configurazioni del ciclo di vita.

      ```
      # Create a new UserProfile
      aws sagemaker create-user-profile --domain-id domain-id \
      --user-profile-name user-profile-name \
      --region region \
      --user-settings '{
      "JupyterServerAppSettings": {
        "LifecycleConfigArns":
          ["lifecycle-configuration-arn"]
        }
      }'
      ```

      Una volta che la scheda LCC è collegata a un dominio o a un profilo utente, gli utenti interessati possono chiudere e aggiornare l'applicazione Studio Classic esistente seguendo la procedura descritta in [Chiudi e aggiorna Amazon SageMaker Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-tasks-update-studio.html) oppure avviare una nuova applicazione Studio Classic dalla AWS console per ripristinare automaticamente le impostazioni predefinite impostate dalla scheda LCC. Questa operazione compila automaticamente l’interfaccia utente di Studio Classic durante la creazione di un esperimento Autopilot. In alternativa, possono avviare una nuova applicazione Studio Classic utilizzando quanto segue. AWS CLI 
    +  **Avviate l'applicazione Studio Classic con la configurazione del ciclo di vita utilizzando AWS CLI**

      ```
      # Create a Jupyter Server application
      aws sagemaker create-app --domain-id domain-id \
      --user-profile-name user-profile-name \
      --region region \
      --app-type JupyterServer \
      --resource-spec LifecycleConfigArn=lifecycle-configuration-arn \
      --app-name default
      ```

      Per ulteriori informazioni sulla creazione di una configurazione del ciclo di vita utilizzando il AWS CLI, consulta [Creare una configurazione del ciclo di vita da AWS CLI](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc-create-cli.html).

------

**Per creare un esperimento Autopilot utilizzando l’interfaccia utente di Studio Classic**

1. Accedi a [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/), scegli **Studio** dal riquadro di navigazione a sinistra, seleziona il tuo dominio e il tuo profilo utente, quindi **Apri** Studio.

1. In Studio, scegli l’icona di Studio Classic nel riquadro di navigazione in alto a sinistra. Viene aperta un’app Studio Classic.

1. Esegui o apri un’applicazione Studio Classic dallo spazio che preferisci oppure **crea uno spazio Studio Classic**. Nella scheda **Home**, scegli la scheda **AutoML.** Si aprirà una nuova scheda **AutoML.**

1. Scegli **Crea un esperimento AutoML**. Si aprirà una nuova scheda **Crea esperimento**.

1. Nella sezione **Dettagli dell'esperimento e dei dati**, inserisci le seguenti informazioni:

   1. **Nome dell'esperimento**: deve essere univoco per il tuo account nella versione corrente Regione AWS e contenere un massimo di 63 caratteri alfanumerici. Può includere trattini (-) ma non spazi.

   1. **Dati di input**: fornisci la posizione del bucket Amazon Simple Storage Service (Amazon S3) dei dati di input. Questo bucket S3 deve trovarsi nella tua Regione AWS attuale. L'URL deve essere in un `s3://` formato in cui Amazon SageMaker AI dispone delle autorizzazioni di scrittura. Il file deve essere in formato CSV o Parquet e contenere almeno 500 righe. Seleziona **Sfoglia** per scorrere i percorsi disponibili e **Anteprima** per visualizzare un esempio dei dati di input.

   1. **L'input S3 è un file manifesto?** – Un file manifesto include metadati con i dati di input. I metadati specificano la posizione dei dati in Amazon S3. Specificano inoltre come vengono formattati i dati e quali attributi del set di dati utilizzare per addestrare il modello. È possibile utilizzare un file manifesto come alternativa alla preelaborazione quando i dati etichettati vengono trasmessi in streaming in modalità `Pipe`.

   1. **Suddivisione automatica dei dati?** – Autopilot può suddividere i dati in una suddivisione dell'80-20% dei dati di addestramento e convalida. Se preferisci una suddivisione personalizzata, puoi scegliere **Specificare il rapporto di suddivisione**. Per utilizzare un set di dati personalizzato per la convalida, scegliere **Fornisci un set di convalida**.

   1. **Posizione dei dati di output (bucket S3)**: il nome della posizione del bucket S3 in cui desideri archiviare i dati di output. L'URL di questo bucket deve essere in un formato Amazon S3 in cui SageMaker Amazon AI dispone di autorizzazioni di scrittura. Il bucket S3 deve trovarsi nella corrente Regione AWS. Autopilot può anche crearlo per te nella stessa posizione dei dati di input. 

1. Scegli **Avanti: Target e funzionalità**. Si aprirà la scheda **Target e funzionalità**.

1. Nella sezione **Target e funzionalità**:
   + seleziona una colonna da impostare come obiettivo per le previsioni dei modelli.
   + Facoltativamente, puoi inserire il nome di una colonna di pesi del campione nella sezione **Peso del campione** per richiedere la ponderazione delle righe del set di dati durante l’addestramento e la valutazione. Per ulteriori informazioni sui parametri disponibili, consulta [Parametri ponderati per Autopilot](autopilot-metrics-validation.md#autopilot-weighted-metrics).
**Nota**  
Il supporto per i pesi dei campioni è disponibile solo in [modalità raggruppamento](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html#autopilot-training-mode).
   + Puoi anche selezionare le funzionalità per l’addestramento e modificarne il tipo di dati. Sono disponibili i seguenti tipi di dati: `Text``Numerical`,`Categorical`,`Datetime`,`Sequence`, e `Auto`. Per impostazione predefinita sono selezionate tutte le funzionalità.

1. Scegli **Avanti: metodo di addestramento**. Si aprirà la scheda **Metodo di addestramento**.

1. Nella sezione **Metodo di addestramento**, seleziona l'opzione di addestramento: **Raggruppamento**, **Hyperparameter optimization (HPO)** o **Auto** per consentire a Autopilot di scegliere automaticamente il metodo di addestramento in base alla dimensione del set di dati. Ogni modalità di addestramento esegue un set predefinito di algoritmi sul set di dati per addestrare candidati modello. Per impostazione predefinita, Autopilot preseleziona tutti gli algoritmi disponibili per la modalità di addestramento specificata. Puoi eseguire un esperimento di addestramento Autopilot con tutti gli algoritmi o scegliere un sottoinsieme personalizzato.

   Per ulteriori informazioni sulle modalità di addestramento e sugli algoritmi disponibili, consulta la sezione **Modalità di addestramento Autopilot** nella pagina [Modalità di addestramento e algoritmi](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html).

1. Scegli **Avanti: implementazione e impostazioni avanzate** per aprire la scheda **Implementazione e impostazioni avanzate**. Le impostazioni includono il nome dell'endpoint con visualizzazione automatica, il tipo di problema di machine learning e scelte aggiuntive per l'esecuzione dell'esperimento.

   1. **Impostazioni di implementazione**: Autopilot può creare automaticamente un endpoint e implementare il modello per te.

      Per eseguire l'implementazione automatica su un endpoint generato automaticamente o per fornire un nome di endpoint per l'implementazione personalizzata, imposta l'interruttore su **Sì** in **Implementazione automatica?** Se stai importando dati da Amazon Data Wrangler, hai a disposizione opzioni aggiuntive per implementare automaticamente il modello migliore con o senza le trasformazioni di SageMaker Data Wrangler.
**Nota**  
Se il flusso di Data Wrangler contiene operazioni su più righe come`groupby`, `join` o `concatenate`, non puoi eseguire l'implementazione automatica con queste trasformazioni. Per ulteriori informazioni, consulta [Addestra automaticamente i modelli sul tuo flusso di dati](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-autopilot.html).

   1. **Impostazioni avanzate (facoltative)**: Autopilot fornisce controlli aggiuntivi per impostare manualmente parametri sperimentali come la definizione del tipo di problema, i vincoli di tempo delle operazioni e le prove Autopilot, le impostazioni di sicurezza e crittografia.
**Nota**  
Autopilot supporta l’impostazione di valori predefiniti per semplificare la configurazione degli esperimenti Autopilot utilizzando l’interfaccia utente di Studio Classic. Gli amministratori possono utilizzare le [configurazioni del ciclo di vita](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc.html) (LCC) di Studio Classic per impostare i valori di infrastruttura, rete e sicurezza nei file di configurazione e precompilare le *impostazioni avanzate* dei processi `AutoML`.  
Per ulteriori informazioni su come gli amministratori possono automatizzare la personalizzazione di un esperimento Autopilot, consulta [Configura i parametri predefiniti di un esperimento Autopilot (per amministratori)](autopilot-set-default-parameters-create-experiment.md).

      1. **Tipo di problema di machine learning**: Autopilot può dedurre automaticamente il tipo di problema di apprendimento supervisionato dal set di dati. Se preferisci sceglierlo manualmente, puoi utilizzare il menu a discesa **Seleziona il tipo di problema di machine learning**. **Nota che il valore predefinito è Automatico**. In alcuni casi, l'intelligenza artificiale non è in grado di dedurre con precisione. SageMaker Quando ciò accade, è necessario fornire il valore necessario affinché il processo abbia successo. In particolare, puoi scegliere tra i seguenti tipi:
         + **Classificazione binaria**: la classificazione binaria assegna i dati di input a una delle due classi predefinite e che si escludono a vicenda, in base ai rispettivi attributi, ad esempio la diagnosi medica basata sui risultati dei test diagnostici che determinano se una persona ha una malattia.
         + **Regressione**: la regressione stabilisce una relazione tra le variabili di input (note anche come variabili o funzionalità indipendenti) e la variabile target (nota anche come variabile dipendente). Questa relazione viene acquisita tramite una funzione o un modello matematico che mappa le variabili di input su un output continuo. Viene comunemente utilizzata per attività come la previsione dei prezzi delle case in base a caratteristiche come la metratura e il numero di bagni, le tendenze del mercato azionario o la stima dei dati di vendita.
         + **Classificazione multiclasse**: la classificazione multiclasse assegna i dati di input a una delle diverse classi in base ai relativi attributi, ad esempio la previsione dell'argomento più rilevante per un documento di testo, come politica, finanza o filosofia.

      1. **Runtime**: è possibile definire un limite di tempo massimo. Al raggiungimento del limite di tempo, le prove e i processi che superano il limite di tempo si interrompono automaticamente.

      1. **Accesso**: puoi scegliere il ruolo che Amazon SageMaker Studio Classic assume per ottenere l'accesso temporaneo Servizi AWS (in particolare, SageMaker AI e Amazon S3) per tuo conto. Se nessun ruolo è definito in modo esplicito, Studio Classic utilizza automaticamente il ruolo di esecuzione SageMaker AI predefinito associato al tuo profilo utente.

      1. **Crittografia**: per migliorare la sicurezza dei dati a riposo e proteggerli da accessi non autorizzati, è possibile specificare chiavi di crittografia per crittografare i dati nei bucket Amazon S3 e nel volume Amazon Elastic Block Store (Amazon EBS) collegato al dominio Studio Classic.

      1. **Sicurezza**: puoi scegliere il cloud privato virtuale (Amazon VPC) in cui viene eseguito il tuo lavoro di SageMaker intelligenza artificiale. Assicurati che Amazon VPC abbia accesso ai tuoi bucket Amazon S3 di input e output.

      1. **Progetto**: specifica il nome del progetto di SageMaker intelligenza artificiale da associare a questo esperimento Autopilot e ai risultati del modello. Quando si specifica un progetto, Autopilot contrassegna il progetto come esperimento. Ciò consente di sapere quali output del modello sono associati a questo progetto.

      1. **Tag**: i tag sono un array di coppie chiave-valore. Usa i tag per classificare le tue risorse Servizi AWS, ad esempio lo scopo, il proprietario o l'ambiente.

   1. Seleziona **Avanti: rivedi e crea** per ottenere un riepilogo dell'esperimento Autopilot prima di crearlo. 

1. Seleziona **Crea esperimento**. La creazione dell'esperimento avvia un processo di autopilota nell'intelligenza artificiale. SageMaker Autopilot fornisce lo stato dell'esperimento, informazioni sul processo di esplorazione dei dati e sui modelli candidati nei notebook, un elenco dei modelli generati e dei relativi report e il profilo professionale utilizzato per crearli.

   Per informazioni sui notebook generati da un processo Autopilot, vedere [Notebook Autopilot generati per gestire le attività AutoML](autopilot-automate-model-development-notebook-output.md). Per informazioni sui dettagli di ciascun modello candidato e sui relativi report, consulta [Visualizza i dettagli del modello](autopilot-models-details.md) e [Visualizzare un report sulle prestazioni del modello Autopilot](autopilot-model-insights.md).

**Nota**  
Per evitare di incorrere in costi inutili: se implementi un modello che non è più necessario, elimina gli endpoint e le risorse che sono state create durante l'implementazione. Le informazioni sulle istanze di prezzo per regione sono disponibili su [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

# Notebook di esempio di Amazon SageMaker Autopilot
<a name="autopilot-example-notebooks"></a>

I seguenti notebook sono esempi pratici e pratici che affrontano vari casi d'uso di Autopilot.

Puoi trovare tutti i notebook di Autopilot nella directory [https://github.com/aws/amazon-sagemaker-examples/tree/main/autopilot](https://github.com/aws/amazon-sagemaker-examples/tree/main/autopilot) del repository di esempi GitHub di SageMaker AI.

È consigliabile clonare l’intero repository Git all’interno di Studio Classic per accedere ai notebook ed eseguirli direttamente. Per informazioni su come clonare un repository Git in Studio Classic, consulta [Clona un repository Git in Amazon Studio Classic SageMaker](studio-tasks-git.md).


| **Caso d'uso** | **Descrizione** | 
| --- | --- | 
| [Inferenza serverless](https://github.com/aws/amazon-sagemaker-examples/tree/main/autopilot/autopilot-serverless-inference) |  Per impostazione predefinita, Autopilot consente di distribuire modelli generati su endpoint di inferenza in tempo reale. In questo repository, il notebook illustra come distribuire modelli Autopilot addestrati con le modalità `ENSEMBLING` e `HYPERPARAMETER OPTIMIZATION (HPO)` su endpoint serverless. Gli endpoint serverless avviano automaticamente le risorse di calcolo e le ridimensionano in base al traffico, eliminando la necessità di scegliere i tipi di istanza o gestire le policy di scalabilità.  | 
|  [Selezione di funzionalità personalizzate](https://github.com/aws/amazon-sagemaker-examples/tree/main/autopilot/custom-feature-selection)  |  Autopilot ispeziona il set di dati ed esegue una serie di candidati per individuare la combinazione ottimale di fasi di preelaborazione dei dati, algoritmi di machine learning e iperparametri. È possibile implementarlo facilmente su un endpoint in tempo reale o per l'elaborazione in batch. In alcuni casi, può essere opportuno avere la flessibilità necessaria per aggiungere codice di elaborazione dati personalizzato ad Autopilot. Ad esempio, i set di dati potrebbero contenere un gran numero di variabili indipendenti e potresti voler incorporare una fase di selezione delle funzionalità personalizzata per rimuovere prima le variabili irrilevanti. Il set di dati più piccolo risultante può quindi essere utilizzato per avviare un processo Autopilot. In definitiva, dovresti includere anche il codice di elaborazione personalizzato e i modelli di Autopilot per l'elaborazione in tempo reale o in batch.  | 
|  [Esempio di pipeline](https://github.com/aws/amazon-sagemaker-examples/tree/main/autopilot/sagemaker-autopilot-pipelines)  |  Sebbene Autopilot semplifichi il processo di creazione di modelli ML, gli ingegneri MLOps sono comunque responsabili della creazione, dell'automazione e della gestione dei flussi di lavoro ML end-to-end in produzione. SageMaker Pipelines può aiutare ad automatizzare varie fasi del ciclo di vita del machine learning, come la preelaborazione dei dati, l'addestramento dei modelli, l'ottimizzazione degli iperparametri, la valutazione dei modelli e l'implementazione. Questo notebook serve come dimostrazione di come incorporare Autopilot in un flusso di lavoro di addestramento AutoML end-to-end di SageMaker Pipelines. Per avviare un esperimento Autopilot all'interno di Pipelines, è necessario creare un flusso di lavoro per la creazione di modelli scrivendo codice di integrazione personalizzato utilizzando le fasi [Lambda](https://docs.aws.amazon.com/sagemaker/latest/dg/build-and-manage-steps.html#step-type-lambda) o [Elaborazione](https://docs.aws.amazon.com/sagemaker/latest/dg/build-and-manage-steps.html#step-type-processing) di Pipelines. Per ulteriori informazioni, consulta [Spostare i modelli ML di Amazon SageMaker Autopilot dalla sperimentazione alla produzione utilizzando Amazon SageMaker Pipelines](https://aws.amazon.com/blogs/machine-learning/move-amazon-sagemaker-autopilot-ml-models-from-experimentation-to-production-using-amazon-sagemaker-pipelines/). In alternativa, quando utilizzi Autopilot in [modalità Ensembling](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-model-support-validation.html), puoi fare riferimento all'esempio del notebook che dimostra come utilizzare la fase AutoML nativa nella [fase AutoML nativa di SageMaker Pipeline](https://github.com/aws/amazon-sagemaker-examples/blob/main/autopilot/sagemaker-autopilot-pipelines/autopilot_pipelines_demo_notebook.ipynb). Con Autopilot supportato come fase nativa all'interno di Pipelines, ora puoi aggiungere una fase di addestramento automatizzata ([AutoMLStep](https://docs.aws.amazon.com/sagemaker/latest/dg/build-and-manage-steps.html#step-type-automl)) alle tue pipeline e richiamare un esperimento Autopilot in modalità Ensembling.  | 
| [Marketing diretto con Amazon SageMaker Autopilot](https://sagemaker-examples.readthedocs.io/en/latest/autopilot/sagemaker_autopilot_direct_marketing.html) |  Questo notebook illustra come utilizza il [set di dati di marketing bancario](https://archive.ics.uci.edu/ml/datasets/bank+marketing) per prevedere se un cliente si iscriverà per un deposito a termine presso una banca. È possibile utilizzare Autopilot in questo set di dati per ottenere la pipeline ML più accurata esplorando le opzioni contenute in varie pipeline candidate. Autopilot genera ogni candidato in una procedura in due fasi. La prima fase esegue l'ingegneria automatizzata delle funzionalità sul set di dati. La seconda fase addestra e sintonizza un algoritmo per produrre un modello. Il notebook contiene istruzioni su come addestrare il modello e su come distribuire il modello per eseguire l'inferenza batch utilizzando i migliori candidati.  | 
| [Previsione del tasso di abbandono dei clienti con Amazon SageMaker Autopilot](https://sagemaker-examples.readthedocs.io/en/latest/autopilot/autopilot_customer_churn.html) |  Questo notebook descrive l’utilizzo del machine learning per l’identificazione automatica di clienti insoddisfatti; questa operazione è nota anche come previsione del tasso di abbandono dei clienti. Nell'esempio viene illustrato come analizzare un set di dati disponibile pubblicamente ed eseguire su di esso l'engineering delle funzionalità. Successivamente viene illustrato come ottimizzare un modello selezionando la pipeline con le prestazioni migliori insieme agli iperparametri ottimali per l'algoritmo di addestramento. Infine, mostra come distribuire il modello su un endpoint ospitato e valutarne le previsioni rispetto alla verità di base. Tuttavia, i modelli ML raramente forniscono previsioni perfette. Ecco perché questo notebook si riferisce anche a come incorporare i costi relativi degli errori di previsione quando si determina il risultato finanziario dell'uso del ML.  | 
| [Previsione del tasso di abbandono dei clienti dei migliori candidati con Amazon SageMaker Autopilot e la trasformazione in batch (Python SDK)](https://sagemaker-examples.readthedocs.io/en/latest/autopilot/autopilot_customer_churn_high_level_with_evaluation.html) |  Anche questo notebook descrive l’utilizzo del machine learning per l’identificazione automatica di clienti insoddisfatti; questa operazione è nota anche come previsione del tasso di abbandono dei clienti. Questo notebook dimostra come configurare il modello per ottenere la probabilità di inferenza, selezionare i migliori N modelli ed eseguire Batch Transform su un set di test hold-out per la valutazione.   Questo notebook funziona con SageMaker Python SDK >= 1.65.1 rilasciato il 19/06/2020.   | 
| [Utilizzo di codice di elaborazione dati personalizzato in Amazon SageMaker Autopilot](https://sagemaker-examples.readthedocs.io/en/latest/autopilot/custom-feature-selection/Feature_selection_autopilot.html) |  Questo notebook dimostra come incorporare e implementare codice di elaborazione dati personalizzato quando si utilizza Amazon SageMaker Autopilot. Aggiunge una fase di selezione delle funzionalità personalizzata per rimuovere le variabili irrilevanti da un lavoro Autopilot. Quindi mostra come implementare sia il codice di elaborazione personalizzato che i modelli generati da Autopilot su un endpoint in tempo reale e, in alternativa, per l'elaborazione in batch.   | 
| Altri notebook | Puoi trovare altri notebook che illustrano altri casi d'uso come la [trasformazione in batch](https://github.com/aws/amazon-sagemaker-examples/blob/main/autopilot/ap-batch-transform.ipynb), la [previsione delle serie temporali](https://github.com/aws/amazon-sagemaker-examples/blob/main/autopilot/autopilot_time_series.ipynb) e altro ancora nella directory root. | 

# Video: utilizzare Autopilot per automatizzare ed esplorare il processo di machine learning
<a name="autopilot-videos"></a>

Ecco una serie di video che offre una panoramica delle funzionalità di Amazon SageMaker Autopilot con Studio Classic. Questi video mostrano come avviare un processo AutoML, analizzare e pre-elaborare i dati, come eseguire l'ingegneria delle funzionalità e l'ottimizzazione degli iperparametri sui modelli candidati e come visualizzare e confrontare i parametri dei modelli risultanti.

**Topics**
+ [Avvia un processo AutoML con Amazon Autopilot SageMaker](#autopilot-video-start-automl-job)
+ [Esaminare l'esplorazione dei dati e l'ingegneria delle funzionalità automatizzata in Autopilot.](#autopilot-video-generated-notebooks)
+ [Sintonizzare i modelli per ottimizzare le prestazioni](#autopilot-video-optimizing-model-performance)
+ [Scegliere e distribuire il modello migliore](#autopilot-video-choose-and-deploy-the-best-model)
+ [Tutorial Amazon SageMaker Autopilot](#autopilot-walkthrough)

## Avvia un processo AutoML con Amazon Autopilot SageMaker
<a name="autopilot-video-start-automl-job"></a>

Questo video mostra come avviare un processo AutoML con Autopilot. (Durata 8:41)

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/qMEtqJPhqpA/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/qMEtqJPhqpA)


## Esaminare l'esplorazione dei dati e l'ingegneria delle funzionalità automatizzata in Autopilot.
<a name="autopilot-video-generated-notebooks"></a>

Questo video mostra come esaminare i taccuini di esplorazione dei dati e di definizione dei candidati generati da Amazon Autopilot. SageMaker (Durata: 10:04)

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/WsfRAeGzgm8/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/WsfRAeGzgm8)


## Sintonizzare i modelli per ottimizzare le prestazioni
<a name="autopilot-video-optimizing-model-performance"></a>

Questo video mostra come ottimizzare le prestazioni del modello durante l'addestramento utilizzando la sintonizzazione iperparametri. (Durata: 4:59)

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/KZSTsWrDGXs/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/KZSTsWrDGXs)


## Scegliere e distribuire il modello migliore
<a name="autopilot-video-choose-and-deploy-the-best-model"></a>

In questo video viene illustrato come utilizzare i parametri dei processi per scegliere il modello migliore e quindi come distribuirlo. (Durata: 5:20)

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/vRHyX3kDstI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/vRHyX3kDstI)


## Tutorial Amazon SageMaker Autopilot
<a name="autopilot-walkthrough"></a>

Questo video illustra una demo completa in cui per prima cosa creiamo automaticamente un modello di classificazione binaria con Amazon SageMaker Autopilot. Vediamo come i modelli candidati sono stati costruiti e ottimizzati utilizzando notebook generati automaticamente. Esaminiamo anche i migliori candidati con Amazon SageMaker Experiments. Infine, implementiamo il candidato migliore (basato su XGBoost) e configuriamo l'acquisizione dei dati con SageMaker Model Monitor.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/DRjOOaR2prQ/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/DRjOOaR2prQ)


# Quote Autopilot
<a name="autopilot-quotas"></a>

Alcune quote limitano le risorse disponibili quando usi Amazon SageMaker Autopilot. Alcuni di questi limiti sono aumentabili, altri no. 

**Nota**  
Le quote delle risorse descritte nelle sezioni seguenti sono valide per Amazon SageMaker Studio Classic 3.22.2 e versioni successive. Per informazioni su come aggiornare la versione di SageMaker Studio Classic, consulta [Chiudi e aggiorna Amazon SageMaker Studio Classic e le app](studio-tasks-update.md).

**Topics**
+ [Quote che è possibile incrementare](#autopilot-quotas-limits-increasable)
+ [Quote delle risorse](#autopilot-quotas-resource-limits)

## Quote che è possibile incrementare
<a name="autopilot-quotas-limits-increasable"></a>

La tabella seguente contiene i limiti di risorse per le quote che è possibile aumentare:


| Risorsa | Regioni | Limiti predefiniti | Può essere aumentato fino a | 
| --- | --- | --- | --- | 
| Dimensione del set di dati di input | Tutti | 100 GB | Centinaia di GB | 
| Dimensione di un singolo file Parquet\$1 | Tutti | 2 GB | N/D | 
| Dimensione del set di dati di destinazione per il sottocampionamento\$1\$1 | Tutti | 5 GB | Centinaia di GB | 
| Numero di processi simultanei di Autopilot | us-east-1, us-east-2, us-west-2, ap-northeast-1, eu-west-1, eu-central-1 | 4 | Centinaia | 
| Numero di processi simultanei di Autopilot | ap-northeast-2, ap-southeast-2, eu-west-2, ap-southeast-1 | 2 | Centinaia | 
| Numero di processi simultanei di Autopilot | Tutte le altre Regioni | 1 | Decine | 

**Nota**  
\$1Questo limite di dimensione di 2 GB è per un singolo file Parquet compresso. Puoi fornire un set di dati Parquet che includa più file Parquet compressi fino alla dimensione massima del set di dati di input. Dopo che i file sono stati decompressi, possono espandersi ciascuno in una dimensione maggiore.  
\$1\$1Autopilot esegue automaticamente un sottocampionamento dei set di dati di input più grandi rispetto alla dimensione del set di dati di destinazione tenendo conto dello squilibrio di classe e preservando le etichette di classe rare.

**Per richiedere un aumento delle quote:**

1. Apri la [console Service Quotas](https://console.aws.amazon.com/servicequotas/home/services/sagemaker/quotas).

1. Seleziona un aumento della quota, quindi scegli **Richiedi un aumento a livello di account**.

1. In **Aumenta il valore della quota**, inserisci il nuovo valore limite che stai richiedendo.

1. Scegli **Richiedi**.

## Quote delle risorse
<a name="autopilot-quotas-resource-limits"></a>

La tabella seguente contiene i limiti delle risorse di runtime per un processo Amazon SageMaker Autopilot in un Regione AWS.


| Risorsa | Limite per processo Autopilot | 
| --- | --- | 
| Runtime massimo per un processo Autopilot | 30 giorni | 

# Guida al riferimento API per Autopilot
<a name="autopilot-reference"></a>

Questa sezione fornisce un sottoinsieme delle REST API del servizio HTTP per la creazione e la gestione delle risorse Amazon SageMaker Autopilot (processi AutoML) a livello di programmazione.

Se il linguaggio preferito è Python, è possibile fare riferimento ad [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html) o direttamente all’[oggetto AutoMLV2](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) di Amazon SageMaker Python SDK.

## Azioni dell’API AutoML
<a name="autopilot-api-actions"></a>

Questo elenco descrive in dettaglio le azioni disponibili nell'API di riferimento per gestire i processi AutoML a livello di codice.
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListAutoMLJobs.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListAutoMLJobs.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_StopAutoMLJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_StopAutoMLJob.html)

**Nota**  
[CreateAutomlJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html) e [DescribeAutomlJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) sono nuove versioni di [CreateAutomlJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html) e [DescribeAutomlJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJob.html) che offrono la compatibilità con le versioni precedenti.  
Si consiglia di utilizzare `CreateAutoMLJobV2`. `CreateAutoMLJobV2` è in grado di gestire tipi di problemi tabulari identici a quelli della versione precedente `CreateAutoMLJob`, nonché tipi di problemi non tabulari come la classificazione di immagini o testi o la previsione di serie temporali.  
Trova le linee guida su come migrare un `CreateAutoMLJob` a `CreateAutoMLJobV2` in [Migrare un CreateAutomlJob a CreateAutomlJobV2](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-automate-model-development-create-experiment.html#autopilot-create-experiment-api-migrate-v1-v2).

## Tipi di dati dell’API AutoML
<a name="autopilot-api-data-types"></a>

Questo elenco descrive in dettaglio gli oggetti API AutoML utilizzati dalle azioni precedenti come richieste in entrata o risposte in uscita.
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLAlgorithmConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateGenerationConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateStep.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidateStep.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLChannel.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLContainerDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLContainerDefinition.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSource.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSource.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLInferenceContainerDefinitions.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLInferenceContainerDefinitions.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobArtifacts.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobArtifacts.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobCompletionCriteria.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobCompletionCriteria.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobInputDataConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobInputDataConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobObjective.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobObjective.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobStepMetadata.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobStepMetadata.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobSummary.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobSummary.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobCompletionCriteria.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobCompletionCriteria.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobSummary.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobSummary.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLPartialFailureReason.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLPartialFailureReason.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeResolvedAttributes.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLProblemTypeResolvedAttributes.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLResolvedAttributes.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLResolvedAttributes.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLSecurityConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLSecurityConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLS3DataSource.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLS3DataSource.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateGenerationConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateProperties.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateProperties.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_FinalAutoMLJobObjectiveMetric.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_FinalAutoMLJobObjectiveMetric.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HolidayConfigAttributes.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HolidayConfigAttributes.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ImageClassificationJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ImageClassificationJobConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployResult.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployResult.html) 
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ResolvedAttributes.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ResolvedAttributes.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularJobConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularResolvedAttributes.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TabularResolvedAttributes.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationJobConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationResolvedAttribute.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextGenerationResolvedAttribute.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesForecastingJobConfig.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesTransformations.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TimeSeriesTransformations.html)
+ [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TuningJobCompletionCriteria.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TuningJobCompletionCriteria.html)