

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Importazione di dati di formazione nei set di dati di Amazon Personalize
<a name="import-data"></a>

Dopo aver completato la [creazione di uno schema e di un set](data-prep-creating-datasets.md) di dati, sei pronto per importare i dati di allenamento nel set di dati. Quando importate i dati, potete scegliere di importare i record in blocco, singolarmente o entrambi.
+ Le importazioni in blocco comportano l'importazione contemporanea di un gran numero di documenti storici. Puoi preparare tu stesso dati in blocco e importarli direttamente in Amazon Personalize da un file CSV in Amazon S3. Per informazioni su come preparare i dati, consulta. [Preparazione dei dati di formazione per Amazon Personalize](preparing-training-data.md) Se hai bisogno di aiuto per preparare i dati, puoi utilizzare SageMaker AI Data Wrangler per preparare e importare i dati relativi all'interazione tra articoli in blocco, agli utenti e agli articoli. Per ulteriori informazioni, consulta [Preparazione e importazione di dati in blocco con Amazon SageMaker AI Data Wrangler](preparing-importing-with-data-wrangler.md).
+ Se non disponi di dati in blocco, puoi utilizzare operazioni di importazione individuali per raccogliere dati e trasmettere eventi in streaming fino a soddisfare i requisiti di formazione di Amazon Personalize e i requisiti relativi ai dati del caso d'uso o della ricetta del tuo dominio. Per informazioni sulla registrazione degli eventi, consulta. [Registrazione di eventi in tempo reale per influenzare le raccomandazioni](recording-events.md) Per informazioni sull'importazione di singoli record, vedere[Importazione di singoli record in un set di dati Amazon Personalize](incremental-data-updates.md). 

 Dopo aver importato i dati in un set di dati Amazon Personalize, puoi [analizzarli](analyzing-data.md), [esportarli in un bucket Amazon S3](export-data.md), [aggiornarli](updating-datasets.md) [o eliminarli eliminando](delete-dataset.md) il set di dati.

Se importi un elemento, un utente o un'azione con lo stesso ID di un record già presente nel tuo set di dati, Amazon Personalize lo sostituisce con il nuovo record. Se registri due eventi di interazione tra elementi o azioni con esattamente lo stesso timestamp e proprietà identiche, Amazon Personalize conserva solo uno degli eventi.

 Man mano che il catalogo cresce, aggiorna i dati storici con ulteriori operazioni di importazione di dati in blocco o individuali. Per consigli in tempo reale, mantieni aggiornato il set di dati sulle interazioni con gli articoli in base al comportamento degli utenti. Puoi farlo registrando gli eventi di interazione in tempo reale con un tracker di *[eventi](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event)* e l'operazione. [PutEvents](API_UBS_PutEvents.md) Per ulteriori informazioni, consulta [Registrazione di eventi in tempo reale per influenzare le raccomandazioni](recording-events.md) 

 Dopo aver importato i dati, sei pronto per creare consigliatori di dominio (per gruppi di set di dati Domain) o risorse personalizzate (per gruppi di set di dati personalizzati) per addestrare un modello sui tuoi dati. Queste risorse vengono utilizzate per generare consigli. Per ulteriori informazioni, consulta [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) o [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md). 

**Topics**
+ [Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati](bulk-data-import-step.md)
+ [Preparazione e importazione di dati in blocco con Amazon SageMaker AI Data Wrangler](preparing-importing-with-data-wrangler.md)
+ [Importazione di singoli record in un set di dati Amazon Personalize](incremental-data-updates.md)

# Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati
<a name="bulk-data-import-step"></a>

Dopo aver formattato i dati di input (vedi[Preparazione dei dati di formazione per Amazon Personalize](preparing-training-data.md)) e averlo completato[Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md), sei pronto per importare i dati in blocco con un processo di importazione del set di dati. Un *processo di importazione di set* di dati è uno strumento di importazione in blocco che popola un set di dati con dati provenienti da Amazon S3.

 Per importare dati da Amazon S3, i tuoi file CSV devono trovarsi in un bucket Amazon S3 e devi autorizzare Amazon Personalize ad accedere alle tue risorse Amazon S3: 
+ Per informazioni sul caricamento di file su Amazon S3, [consulta Caricamento di file e cartelle tramite Drag and Drop](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-objects.html) nella Guida per l'utente di Amazon Simple Storage Service.
+ Per informazioni su come concedere ad Amazon Personalize l'accesso ai tuoi file in Amazon S3, consulta. [Offrire ad Amazon Personalize l'accesso alle risorse di Amazon S3](granting-personalize-s3-access.md)

   Se utilizzi AWS Key Management Service (AWS KMS) per la crittografia, devi concedere ad Amazon Personalize e al tuo ruolo di servizio Amazon Personalize IAM l'autorizzazione a usare la tua chiave. Per ulteriori informazioni, consulta [Autorizzazione all'uso del codice da parte di Amazon Personalize AWS KMS](granting-personalize-key-access.md).

Puoi creare un processo di importazione di set di dati utilizzando la console Amazon Personalize AWS Command Line Interface ,AWS CLI() o. AWS SDKs Se in precedenza hai creato un processo di importazione di set di dati per un set di dati, puoi utilizzare un nuovo processo di importazione del set di dati per aggiungere o sostituire i dati di massa esistenti. Per ulteriori informazioni, consulta [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md). 

Se importi un elemento, un utente o un'azione con lo stesso ID di un record già presente nel tuo set di dati, Amazon Personalize lo sostituisce con il nuovo record. Se registri due eventi di interazione tra elementi o azioni con esattamente lo stesso timestamp e proprietà identiche, Amazon Personalize conserva solo uno degli eventi.

 Dopo aver importato i dati, sei pronto per creare consigliatori di dominio (per gruppi di set di dati di dominio) o risorse personalizzate (per gruppi di set di dati personalizzati) per addestrare un modello sui tuoi dati. Queste risorse vengono utilizzate per generare consigli. Per ulteriori informazioni, consulta [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) o [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md). 



**Topics**
+ [Modalità di importazione](#bulk-import-modes)
+ [Creazione di un processo di importazione del set di dati (console)](#bulk-data-import-console)
+ [Creazione di un processo di importazione del set di dati ()AWS CLI](#bulk-data-import-cli)
+ [Creazione di un processo di importazione del set di dati ()AWS SDKs](#python-import-ex)

## Modalità di importazione
<a name="bulk-import-modes"></a>

Se hai già creato un processo di importazione per il set di dati, puoi configurare il modo in cui Amazon Personalize aggiunge i tuoi nuovi record. A tale scopo, è necessario specificare una modalità di importazione per il processo di importazione del set di dati. Se non hai importato record in blocco, il campo **Modalità di importazione** non è disponibile nella console e puoi specificarlo solo `FULL` nell'operazione `CreateDatasetImportJob` API. L'impostazione predefinita è una sostituzione completa.
+ Per sovrascrivere tutti i dati in blocco esistenti nel tuo set di dati, scegli **Sostituisci i dati esistenti** nella console Amazon Personalize o specifica `FULL` nell'operazione API. [CreateDatasetImportJob](API_CreateDatasetImportJob.md) Ciò non sostituisce i dati importati singolarmente, inclusi gli eventi registrati in tempo reale.
+ Per aggiungere i record ai dati esistenti nel set di dati, scegli **Aggiungi ai dati esistenti** o specifica `INCREMENTAL` nell'operazione `CreateDatasetImportJob` API. Amazon Personalize sostituisce qualsiasi record con lo stesso ID con uno nuovo.
**Nota**  
Per aggiungere dati a un set di dati sulle interazioni tra elementi o sul set di dati sulle interazioni Action con un processo di importazione del set di dati, devi disporre di almeno 1000 nuovi record di interazioni tra elementi o azioni.

## Creazione di un processo di importazione del set di dati (console)
<a name="bulk-data-import-console"></a>

**Importante**  
Per impostazione predefinita, un processo di importazione del set di dati sostituisce tutti i dati esistenti nel set di dati importato in blocco. [Se hai già importato dati in blocco, puoi aggiungere dati modificando la modalità di importazione del lavoro.](#bulk-import-modes)

 Per importare record di massa in un set di dati con la console Amazon Personalize, crea un processo di importazione del set di dati con un nome, il ruolo del servizio IAM e la posizione dei dati.

Se hai appena creato il set di dati in[Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md), vai al passaggio 5.

**Per importare record in blocco (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1.  Nella pagina dei **gruppi di set** di dati, scegli il tuo gruppo di set di dati. **Viene visualizzata la panoramica del gruppo di set di dati.**

1. Nel riquadro di navigazione, scegli **Set** di dati e scegli il set di dati in cui desideri importare dati in blocco.

1. In Processi di importazione di **set di dati, scegli **Crea** processo di importazione** del set di dati.

1. Se questo è il tuo primo processo di importazione del set di dati, per **Origine di importazione dati** scegli Importa **dati da S3**.

1. Per il **nome del processo di importazione del set** di dati, specifica un nome per il processo di importazione.

1. Se hai già importato dati in blocco, per la **modalità Importazione**, scegli come aggiornare il set di dati. Scegli **Sostituisci dati esistenti** o **Aggiungi a dati esistenti. dati**. Questa opzione non viene visualizzata se è il tuo primo lavoro per il set di dati. Per ulteriori informazioni, consulta [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md).

1. In **Origine di importazione dati**, per **Data Location**, specifica dove è archiviato il file di dati in Amazon S3. Utilizzare la seguente sintassi:

   **s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>**

   Se i tuoi file CSV si trovano in una cartella del tuo bucket Amazon S3 e desideri caricare più file CSV in un set di dati con un solo processo di importazione del set di dati, puoi specificare il percorso della cartella. Amazon Personalize utilizza solo i file nel primo livello della cartella, non utilizza dati in nessuna sottocartella. Usa la seguente sintassi con una `/` dopo il nome della cartella:

   **s3:/amzn-s3-demo-bucket/<folder path>/**

1. Nel **ruolo IAM**, scegli di creare un nuovo ruolo o utilizzarne uno esistente. Se hai completato i prerequisiti, scegli **Usa un ruolo di servizio esistente** e specifica il ruolo in [Creazione di un ruolo IAM per Amazon Personalize](set-up-required-permissions.md#set-up-create-role-with-permissions) cui hai creato. 

1. **Se hai creato un'attribuzione di metriche e desideri pubblicare le metriche relative a questo lavoro su Amazon S3, in **Pubblica metriche di eventi su S3 scegli Pubblica metriche per** questo processo di importazione.** 

   Se non ne hai creata una e desideri pubblicare le metriche per questo lavoro, scegli **Crea attribuzione delle metriche per crearne una nuova** in una scheda diversa. Dopo aver creato l'attribuzione della metrica, puoi tornare a questa schermata e completare la creazione del processo di importazione. 

   Per ulteriori informazioni sulle attribuzioni delle metriche, consulta. [Misurazione dell'impatto dei consigli di Amazon Personalize](measuring-recommendation-impact.md)

1. Per i **tag**, aggiungi facoltativamente qualsiasi tag. Per ulteriori informazioni sull'etichettatura delle risorse Amazon Personalize, consulta. [Etichettare le risorse di Amazon Personalize](tagging-resources.md)

1. Scegli **Start import (Avvia importazione)**. Il processo di importazione dei dati viene avviato e viene visualizzata la pagina con la **Dashboard Overview (Panoramica del pannello di controllo)**. L'importazione del set di dati è completata quando lo stato mostra il valore ACTIVE. Dopo aver importato i dati in un set di dati Amazon Personalize, puoi [analizzarli](analyzing-data.md), [esportarli in un bucket Amazon S3](export-data.md), [aggiornarli](updating-datasets.md) [o eliminarli eliminando](delete-dataset.md) il set di dati. 

    Dopo aver importato i dati, sei pronto per creare consigliatori di dominio (per gruppi di set di dati Domain) o risorse personalizzate (per gruppi di set di dati personalizzati) per addestrare un modello sui tuoi dati. Queste risorse vengono utilizzate per generare consigli. Per ulteriori informazioni, consulta [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) o [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md). 

## Creazione di un processo di importazione del set di dati ()AWS CLI
<a name="bulk-data-import-cli"></a>

**Importante**  
Per impostazione predefinita, un processo di importazione del set di dati sostituisce tutti i dati esistenti nel set di dati importato in blocco. [Se hai già importato dati in blocco, puoi aggiungere dati modificando la modalità di importazione del lavoro.](#bulk-import-modes)

 Per importare record in blocco utilizzando il AWS CLI, crea un processo di importazione del set di dati utilizzando il comando. [CreateDatasetImportJob](API_CreateDatasetImportJob.md) Se in precedenza hai creato un processo di importazione del set di dati per un set di dati, puoi utilizzare il parametro della modalità di importazione per specificare come aggiungere i nuovi dati. Per ulteriori informazioni sull'aggiornamento di dati in blocco esistenti, consulta. [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md)

**Importa record in blocco ()AWS CLI**

1. Creare un processo di importazione del set di dati eseguendo il seguente comando. Fornisci l'Amazon Resource Name (ARN) per il tuo set di dati e specifica il percorso del bucket Amazon S3 in cui hai archiviato i dati di addestramento. Usa la seguente sintassi per il percorso:

   **s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>**

   Se i tuoi file CSV si trovano in una cartella del tuo bucket Amazon S3 e desideri caricare più file CSV in un set di dati con un solo processo di importazione del set di dati, puoi specificare il percorso della cartella. Amazon Personalize utilizza solo i file nel primo livello della cartella, non utilizza dati in nessuna sottocartella. Usa la seguente sintassi con una `/` dopo il nome della cartella:

   **s3:/amzn-s3-demo-bucket/<folder path>/**

   Fornisci il ruolo AWS Identity and Access Management (IAM) Amazon Resource Name (ARN) in cui hai creato. [Creazione di un ruolo IAM per Amazon Personalize](set-up-required-permissions.md#set-up-create-role-with-permissions) Il `import-mode` predefinito è `FULL`. Per ulteriori informazioni, consulta [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md). Per ulteriori informazioni sull'operazione, consultare [CreateDatasetImportJob](API_CreateDatasetImportJob.md).

   ```
   aws personalize create-dataset-import-job \
   --job-name dataset import job name \
   --dataset-arn dataset arn \
   --data-source dataLocation=s3://amzn-s3-demo-bucket/filename \
   --role-arn roleArn \
   --import-mode FULL
   ```

   Viene visualizzato l'ARN del processo di importazione del set di dati, come illustrato nell'esempio seguente.

   ```
   {
     "datasetImportJobArn": "arn:aws:personalize:us-west-2:acct-id:dataset-import-job/DatasetImportJobName"
   }
   ```

1. Verificare lo stato utilizzando il comando `describe-dataset-import-job`. Fornire l'ARN del processo di importazione del set di dati restituito nel passaggio precedente. Per ulteriori informazioni sull'operazione, consultare [DescribeDatasetImportJob](API_DescribeDatasetImportJob.md).

   ```
   aws personalize describe-dataset-import-job \
   --dataset-import-job-arn dataset import job arn
   ```

   Vengono visualizzate le proprietà del processo di importazione del set di dati, incluso lo stato. Inizialmente, `status` viene visualizzato come CREATE PENDING.

   ```
   {
     "datasetImportJob": {
         "jobName": "Dataset Import job name",
         "datasetImportJobArn": "arn:aws:personalize:us-west-2:acct-id:dataset-import-job/DatasetImportJobArn",
         "datasetArn": "arn:aws:personalize:us-west-2:acct-id:dataset/DatasetGroupName/INTERACTIONS",
         "dataSource": {
             "dataLocation": "s3://amzn-s3-demo-bucket/ratings.csv"
         },
         "importMode": "FULL",
         "roleArn": "role-arn",
         "status": "CREATE PENDING",
         "creationDateTime": 1542392161.837,
         "lastUpdatedDateTime": 1542393013.377
     }
   }
   ```

   L'importazione del set di dati è completata quando lo stato mostra il valore ACTIVE. Dopo aver importato i dati in un set di dati Amazon Personalize, puoi [analizzarli](analyzing-data.md), [esportarli in un bucket Amazon S3](export-data.md), [aggiornarli](updating-datasets.md) [o eliminarli eliminando](delete-dataset.md) il set di dati. 

    Dopo aver importato i dati, sei pronto per creare consigliatori di dominio (per gruppi di set di dati Domain) o risorse personalizzate (per gruppi di set di dati personalizzati) per addestrare un modello sui tuoi dati. Queste risorse vengono utilizzate per generare consigli. Per ulteriori informazioni, consulta [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) o [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md). 

## Creazione di un processo di importazione del set di dati ()AWS SDKs
<a name="python-import-ex"></a>

**Importante**  
Per impostazione predefinita, un processo di importazione del set di dati sostituisce tutti i dati esistenti nel set di dati importato in blocco. [Se hai già importato dati in blocco, puoi aggiungere dati modificando la modalità di importazione del lavoro.](#bulk-import-modes)

Per importare dati, crea un processo di importazione del set di dati con l'operazione. [CreateDatasetImportJob](API_CreateDatasetImportJob.md) Il codice seguente mostra come creare un processo di importazione del set di dati.

Fornisci il nome del lavoro, imposta `datasetArn` l'Amazon Resource Name (ARN) del tuo set di dati e impostalo sul percorso del `dataLocation` bucket Amazon S3 in cui hai archiviato i dati di addestramento. Usa la seguente sintassi per il percorso:

**s3:/amzn-s3-demo-bucket/<folder path>/<CSV filename>.csv**

Se i tuoi file CSV si trovano in una cartella del tuo bucket Amazon S3 e desideri caricare più file CSV in un set di dati con un solo processo di importazione del set di dati, puoi specificare il percorso della cartella. Amazon Personalize utilizza solo i file nel primo livello della cartella, non utilizza dati in nessuna sottocartella. Usa la seguente sintassi con una `/` dopo il nome della cartella:

**s3:/amzn-s3-demo-bucket/<folder path>/**

Per la`roleArn`, specifica il ruolo AWS Identity and Access Management (IAM) che concede ad Amazon Personalize le autorizzazioni per accedere al tuo bucket S3. Per informazioni, consulta [Creazione di un ruolo IAM per Amazon Personalize](set-up-required-permissions.md#set-up-create-role-with-permissions). Il `importMode` predefinito è `FULL`. Questo sostituisce tutti i dati in blocco nel set di dati. Per aggiungere dati, impostalo su. `INCREMENTAL` Per ulteriori informazioni sull'aggiornamento dei dati di massa esistenti, consulta. [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md) 

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize = boto3.client('personalize')

response = personalize.create_dataset_import_job(
    jobName = 'YourImportJob',
    datasetArn = 'dataset_arn',
    dataSource = {'dataLocation':'s3://amzn-s3-demo-bucket/filename.csv'},
    roleArn = 'role_arn',
    importMode = 'FULL'
)

dsij_arn = response['datasetImportJobArn']

print ('Dataset Import Job arn: ' + dsij_arn)

description = personalize.describe_dataset_import_job(
    datasetImportJobArn = dsij_arn)['datasetImportJob']

print('Name: ' + description['jobName'])
print('ARN: ' + description['datasetImportJobArn'])
print('Status: ' + description['status'])
```

------
#### [ SDK for Java 2.x ]

```
public static String createPersonalizeDatasetImportJob(PersonalizeClient personalizeClient,
                                                      String jobName,
                                                      String datasetArn,
                                                      String s3BucketPath,
                                                      String roleArn,
                                                      ImportMode importMode) {

  long waitInMilliseconds = 60 * 1000;
  String status;
  String datasetImportJobArn;
  
  try {
      DataSource importDataSource = DataSource.builder()
              .dataLocation(s3BucketPath)
              .build();
      
      CreateDatasetImportJobRequest createDatasetImportJobRequest = CreateDatasetImportJobRequest.builder()
              .datasetArn(datasetArn)
              .dataSource(importDataSource)
              .jobName(jobName)
              .roleArn(roleArn)
              .importMode(importMode)
              .build();
  
      datasetImportJobArn = personalizeClient.createDatasetImportJob(createDatasetImportJobRequest)
              .datasetImportJobArn();
      
      DescribeDatasetImportJobRequest describeDatasetImportJobRequest = DescribeDatasetImportJobRequest.builder()
              .datasetImportJobArn(datasetImportJobArn)
              .build();
  
      long maxTime = Instant.now().getEpochSecond() + 3 * 60 * 60;
  
      while (Instant.now().getEpochSecond() < maxTime) {
  
          DatasetImportJob datasetImportJob = personalizeClient
                  .describeDatasetImportJob(describeDatasetImportJobRequest)
                  .datasetImportJob();
  
          status = datasetImportJob.status();
          System.out.println("Dataset import job status: " + status);
  
          if (status.equals("ACTIVE") || status.equals("CREATE FAILED")) {
              break;
          }
          try {
              Thread.sleep(waitInMilliseconds);
          } catch (InterruptedException e) {
              System.out.println(e.getMessage());
          }
      }
      return datasetImportJobArn;
  
  } catch (PersonalizeException e) {
      System.out.println(e.awsErrorDetails().errorMessage());
  }
  return "";
}
```

------
#### [ SDK for JavaScript v3 ]

```
// Get service clients and commands using ES6 syntax.
import { CreateDatasetImportJobCommand, PersonalizeClient } from
  "@aws-sdk/client-personalize";

// create personalizeClient
const personalizeClient = new PersonalizeClient({
  region: "REGION"
});

// Set the dataset import job parameters.
export const datasetImportJobParam = {
  datasetArn: 'DATASET_ARN', /* required */
  dataSource: {  
    dataLocation: 's3://amzn-s3-demo-bucket/<folderName>/<CSVfilename>.csv'  /* required */
  },
  jobName: 'NAME',           /* required */
  roleArn: 'ROLE_ARN',       /* required */
  importMode: "FULL"         /* optional, default is FULL */
};

export const run = async () => {
  try {
    const response = await personalizeClient.send(new CreateDatasetImportJobCommand(datasetImportJobParam));
    console.log("Success", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

La risposta dell'[DescribeDatasetImportJob](API_DescribeDatasetImportJob.md)operazione include lo stato dell'operazione.

È necessario attendere che lo stato cambi in ACTIVE prima di poter utilizzare i dati per eseguire il training di un modello.

L'importazione del set di dati è completata quando lo stato mostra il valore ACTIVE. Dopo aver importato i dati in un set di dati Amazon Personalize, puoi [analizzarli](analyzing-data.md), [esportarli in un bucket Amazon S3](export-data.md), [aggiornarli](updating-datasets.md) [o eliminarli eliminando](delete-dataset.md) il set di dati. 

 Dopo aver importato i dati, sei pronto per creare consigliatori di dominio (per gruppi di set di dati Domain) o risorse personalizzate (per gruppi di set di dati personalizzati) per addestrare un modello sui tuoi dati. Queste risorse vengono utilizzate per generare consigli. Per ulteriori informazioni, consulta [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) o [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md). 

# Preparazione e importazione di dati in blocco con Amazon SageMaker AI Data Wrangler
<a name="preparing-importing-with-data-wrangler"></a>

**Importante**  
L'utilizzo di Data Wrangler comporta costi legati all'intelligenza artificiale SageMaker . Per un elenco completo di addebiti e prezzi, consulta la scheda Data Wrangler dei prezzi di [Amazon SageMaker AI](https://aws.amazon.com/sagemaker/pricing/). Per evitare di incorrere in costi aggiuntivi, quando hai finito, chiudi l'istanza Data Wrangler. Per ulteriori informazioni, consulta [Shut](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-shut-down.html) Down Data Wrangler. 

Dopo aver creato un gruppo di set di dati, puoi utilizzare Amazon SageMaker AI Data Wrangler (Data Wrangler) per importare dati da oltre 40 fonti in un set di dati Amazon Personalize. Data Wrangler è una funzionalità di Amazon SageMaker AI Studio Classic che fornisce una end-to-end soluzione per importare, preparare, trasformare e analizzare i dati. Non puoi utilizzare Data Wrangler per preparare e importare dati in un set di dati Actions o in un set di dati di interazioni Action.

 Quando usi Data Wrangler per preparare e importare dati, utilizzi un flusso di dati. Un *flusso di dati* definisce una serie di passaggi di preparazione dei dati tramite machine learning, a partire dall'importazione dei dati. Ogni volta che aggiungi un passaggio al flusso, Data Wrangler esegue un'azione sui dati, ad esempio trasformandoli o generando una visualizzazione. 

Di seguito sono riportati alcuni passaggi che puoi aggiungere al flusso per preparare i dati per Amazon Personalize:
+ **Insights:** puoi aggiungere passaggi di analisi specifici di Amazon Personalize al tuo flusso. Queste informazioni possono aiutarti a conoscere i tuoi dati e quali azioni puoi intraprendere per migliorarli.
+ **Visualizzazioni:** puoi aggiungere passaggi di visualizzazione per generare grafici come istogrammi e grafici a dispersione. I grafici possono aiutarti a scoprire problemi nei dati, come valori anomali o valori mancanti.
+ **Trasformazioni:** puoi utilizzare le fasi di trasformazione specifiche e generali di Amazon Personalize per assicurarti che i tuoi dati soddisfino i requisiti di Amazon Personalize. La trasformazione di Amazon Personalize ti aiuta a mappare le colonne di dati alle colonne obbligatorie a seconda del tipo di set di dati Amazon Personalize.

Se devi lasciare Data Wrangler prima di importare i dati in Amazon Personalize, puoi tornare al punto in cui avevi interrotto scegliendo lo stesso tipo di set di dati quando [avvii Data Wrangler](dw-launch-dw-from-personalize.md) dalla console Amazon Personalize. Oppure puoi accedere a Data Wrangler direttamente tramite AI Studio Classic. SageMaker 

 Ti consigliamo di importare i dati da Data Wrangler in Amazon Personalize come segue. Le fasi di trasformazione, visualizzazione e analisi sono opzionali, ripetibili e possono essere completate in qualsiasi ordine. 

1. **[Configura le autorizzazioni](dw-data-prep-minimum-permissions.md)**: configura le autorizzazioni per i ruoli dei servizi Amazon Personalize SageMaker e AI. E configura le autorizzazioni per i tuoi utenti.

1. **[Avvia Data Wrangler in SageMaker AI Studio Classic dalla console Amazon Personalize - Usa la](dw-launch-dw-from-personalize.md)** console Amazon Personalize per configurare SageMaker un dominio AI e avvia Data Wrangler in AI Studio Classic. SageMaker 

1. **[Importa i tuoi dati in Data Wrangler - Importa dati da oltre 40 fonti in Data Wrangler](dw-import-data.md)**. Le fonti includono AWS servizi come Amazon Redshift, Amazon EMR o Amazon Athena e terze parti come Snowflake o. DataBricks

1. **[Trasforma i tuoi dati](dw-transform-data.md)**: usa Data Wrangler per trasformare i tuoi dati in modo da soddisfare i requisiti di Amazon Personalize.

1. **[Visualizza e analizza i tuoi dati](dw-analyze-data.md)**: usa Data Wrangler per visualizzare i tuoi dati e analizzarli tramite informazioni specifiche di Amazon Personalize.

1. **[Elabora e importa dati in Amazon Personalize](dw-export-data.md)**: utilizza un notebook SageMaker AI Studio Classic Jupyter per importare i dati elaborati in Amazon Personalize.

## Informazioni aggiuntive
<a name="dw-additional-info"></a>

Le seguenti risorse forniscono informazioni aggiuntive sull'uso di Amazon SageMaker AI Data Wrangler e Amazon Personalize.
+ *Per un tutorial che illustra l'elaborazione e la trasformazione di un set di dati di esempio, consulta [Demo: Data Wrangler Titanic Dataset Walkthrough](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-getting-started.html#data-wrangler-getting-started-demo) nella Amazon AI Developer Guide. SageMaker * Questo tutorial presenta i campi e le funzioni di Data Wrangler.
+ Per informazioni sull'onboarding verso i domini Amazon SageMaker AI, consulta [Quick onboard to Amazon AI Domain nella SageMaker Amazon AI Developer SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/onboard-quick-start.html) *Guide*.
+ Per informazioni sui requisiti relativi ai dati di Amazon Personalize, consulta. [Preparazione dei dati di formazione per Amazon Personalize](preparing-training-data.md)

# Impostazione delle autorizzazioni
<a name="dw-data-prep-minimum-permissions"></a>

Per preparare i dati con Data Wrangler, devi impostare le seguenti autorizzazioni: 
+ **Crea un ruolo di servizio per Amazon Personalize:** se non l'hai già fatto, completa le istruzioni [Configurazione di Amazon Personalize](setup.md) per creare un ruolo di servizio IAM per Amazon Personalize. Questo ruolo deve disporre di autorizzazioni `GetObject` e `ListBucket` autorizzazioni per i bucket Amazon S3 che archiviano i dati elaborati. E deve avere il permesso di utilizzare qualsiasi chiave. AWS KMS 

   Per informazioni su come concedere ad Amazon Personalize l'accesso ai tuoi bucket Amazon S3, consulta. [Offrire ad Amazon Personalize l'accesso alle risorse di Amazon S3](granting-personalize-s3-access.md) Per informazioni su come concedere ad Amazon Personalize l'accesso alle AWS KMS tue chiavi, consulta. [Autorizzazione all'uso del codice da parte di Amazon Personalize AWS KMS](granting-personalize-key-access.md) 
+  **Crea un utente amministrativo con autorizzazioni SageMaker AI:** l'amministratore deve avere pieno accesso all' SageMaker IA e deve essere in grado di creare un SageMaker dominio AI. Per ulteriori informazioni, consulta [Creare un utente e un gruppo amministrativo](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-set-up.html#gs-account-user) nella *Amazon SageMaker AI Developer Guide*. 
+ **Crea un ruolo di esecuzione SageMaker AI: crea un ruolo** di esecuzione SageMaker AI con accesso alle risorse SageMaker AI e alle operazioni di importazione dei dati di Amazon Personalize. Al ruolo di esecuzione dell' SageMaker IA deve essere associata la [https://console.aws.amazon.com/iam/home?#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home?#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)policy. *Se hai bisogno di autorizzazioni Data Wrangler più granulari, consulta [Data Wrangler Security and Permissions nella](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-security.html#data-wrangler-security-iam-policy) Amazon AI Developer Guide. SageMaker * [Per ulteriori informazioni sui ruoli AI, consulta AI Roles SageMaker . SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-roles.html) 

  Per concedere l'accesso alle operazioni di importazione dei dati di Amazon Personalize, collega la seguente policy IAM al ruolo di esecuzione SageMaker AI. Questa politica concede le autorizzazioni necessarie per importare dati in Amazon Personalize e allegare una policy al tuo bucket Amazon S3. E concede `PassRole` le autorizzazioni quando il servizio è Amazon Personalize. Aggiorna Amazon S3 `amzn-s3-demo-bucket` al nome del bucket Amazon S3 che desideri utilizzare come destinazione per i dati formattati dopo averli preparati con Data Wrangler. 

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Effect": "Allow",
              "Action": [
                  "personalize:Create*",
                  "personalize:List*",
                  "personalize:Describe*"
              ],
              "Resource": "*"
          },
          {
              "Effect": "Allow",
              "Action": [
                  "s3:PutBucketPolicy"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-bucket",
                  "arn:aws:s3:::amzn-s3-demo-bucket/*"
              ]
          },
          {
              "Effect": "Allow",
              "Action": [
                  "iam:PassRole"
              ],
              "Resource": "*",
              "Condition": {
                  "StringEquals": {
                      "iam:PassedToService": "personalize.amazonaws.com"
                  }
              }
          }
      ]
  }
  ```

------

  *Per informazioni sulla creazione di una policy IAM, consulta [Creazione di politiche IAM nella IAM User Guide](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html).* Per informazioni sull'associazione di una policy IAM al ruolo, consulta [Aggiungere e rimuovere le autorizzazioni di identità IAM nella Guida](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) per l'*utente IAM*.

# Avvio di Data Wrangler da Amazon Personalize
<a name="dw-launch-dw-from-personalize"></a>

Per avviare Data Wrangler da Amazon Personalize, utilizzi la console Amazon Personalize per configurare SageMaker un dominio AI e avviare Data Wrangler. 

**Per avviare Data Wrangler da Amazon Personalize**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1. Nella pagina dei **gruppi di set** di dati, scegli il tuo gruppo di set di dati.

1. In **Configura set** di dati scegli **Crea set di dati e scegli il tipo di set** di dati da creare. Non puoi utilizzare Data Wrangler per preparare un set di dati Actions o un set di dati di interazioni Action.

1. **Scegli **Importa dati usando Data Wrangler** e scegli Avanti.**

1. Per il **SageMaker dominio**, scegli di utilizzare un dominio esistente o crearne uno nuovo. È necessario un dominio SageMaker AI per accedere a Data Wrangler in SageMaker AI Studio Classic. Per informazioni su domini e profili utente, consulta [SageMaker AI Domain](https://docs.aws.amazon.com/sagemaker/latest/dg/sm-domain.html) nella *Amazon SageMaker AI Developer Guide*.

1. Per utilizzare un dominio esistente, scegli un **dominio SageMaker AI** e un **profilo utente** per configurare il dominio.

1. Per creare un nuovo dominio:
   + Assegna un nome al nuovo dominio.
   + Scegli un **nome per il profilo utente**.
   +  Per **Ruolo di esecuzione**, scegli il ruolo in cui hai creato[Impostazione delle autorizzazioni](dw-data-prep-minimum-permissions.md). Oppure, se disponi CreateRole delle autorizzazioni, crea un nuovo ruolo utilizzando la procedura guidata per la creazione dei ruoli. Il ruolo che usi deve avere la `AmazonSageMakerFullAccess` policy allegata. 

1. Scegli **Next (Successivo)**. Se stai creando un nuovo dominio, l' SageMaker IA inizia a creare il tuo dominio. Questa operazione può richiedere fino a dieci minuti.

1. Controlla i dettagli del tuo dominio SageMaker AI.

1. Scegli **Importa dati con Data Wrangler**. SageMaker AI Studio Classic inizia a creare il tuo ambiente e, una volta completata, la pagina **Data flow** di Data Wrangler in SageMaker AI Studio Classic si apre in una nuova scheda. Possono essere necessari fino a cinque minuti prima che SageMaker AI Studio Classic completi la creazione dell'ambiente. Al termine, sei pronto per iniziare a importare i dati in Data Wrangler. Per ulteriori informazioni, consulta [Importazione di dati in Data Wrangler](dw-import-data.md).

# Importazione di dati in Data Wrangler
<a name="dw-import-data"></a>

 Dopo aver configurato un dominio SageMaker AI e avviato Data Wrangler in una nuova scheda, sei pronto per importare i dati dalla tua fonte in Data Wrangler. Quando usi Data Wrangler per preparare i dati per Amazon Personalize, importi un set di dati alla volta. Ti consigliamo di iniziare con un set di dati sulle interazioni tra oggetti. Non puoi utilizzare Data Wrangler per preparare un set di dati Actions o un set di dati di interazioni Action.

 **Inizi dalla pagina Flusso di dati.** La pagina dovrebbe avere un aspetto simile alla seguente. 

![\[Rappresenta la pagina Data flow di Data Wrangler con le opzioni Importa dati e Usa set di dati di esempio.\]](http://docs.aws.amazon.com/it_it/personalize/latest/dg/images/dw-data-sources.png)


Per iniziare a importare i dati, scegli **Importa dati e specifica la tua fonte di dati**. Data Wrangler supporta oltre 40 fonti. Questi includono AWS servizi come Amazon Redshift, Amazon EMR o Amazon Athena e terze parti, come Snowflake o. DataBricks Diverse fonti di dati hanno procedure diverse per la connessione e l'importazione dei dati. 

Per un elenco completo delle fonti disponibili e delle step-by-step istruzioni sull'importazione dei dati, consulta [Importa](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-import.html) nella *Amazon SageMaker AI Developer Guide*. 

Dopo aver importato i dati in Data Wrangler, sei pronto per trasformarli. Per informazioni sulla trasformazione dei dati, consulta. [Trasformazione dei dati](dw-transform-data.md)

# Trasformazione dei dati
<a name="dw-transform-data"></a>

 Per trasformare i dati in Data Wrangler, aggiungi una fase di **trasformazione** al flusso di dati. Data Wrangler include oltre 300 trasformazioni che puoi utilizzare per preparare i tuoi dati, tra cui **colonne Map per Amazon Personalize** Transform. Inoltre, puoi utilizzare le trasformazioni generali di Data Wrangler per correggere problemi come valori anomali, problemi di tipo e valori mancanti. 

Dopo aver finito di trasformare i dati, puoi analizzarli con Data Wrangler. Oppure, se hai finito di preparare i dati in Data Wrangler, puoi elaborarli e importarli in Amazon Personalize. Per informazioni sull'analisi dei dati, consulta. [Generazione di visualizzazioni e approfondimenti sui dati](dw-analyze-data.md) Per informazioni sull'elaborazione e l'importazione dei dati, vedere. [Elaborazione dei dati e loro importazione in Amazon Personalize](dw-export-data.md)

**Topics**
+ [Colonne di mappatura per Amazon Personalize](#dw-personalize-transform)
+ [Trasformazioni di General Data Wrangler](#dw-general-transform)

## Colonne di mappatura per Amazon Personalize
<a name="dw-personalize-transform"></a>

 Per trasformare i dati in modo che soddisfino i requisiti di Amazon Personalize, aggiungi le **colonne Map per Amazon Personalize** transform e mappa le colonne ai campi obbligatori e facoltativi di Amazon Personalize.

**Per utilizzare le colonne della mappa per Amazon Personalize Transform**

1.  Scegli **\$1** per la tua ultima trasformazione e scegli **Aggiungi trasformazione**. Se non hai aggiunto una trasformazione, scegli **\$1** per la trasformazione **dei tipi di dati**. Data Wrangler aggiunge questa trasformazione automaticamente al tuo flusso. 

1.  Scegli **Aggiungi fase**. 

1.  Scegli **Transforms per Amazon Personalize**. Le **colonne della mappa per Amazon Personalize** transform sono selezionate per impostazione predefinita. 

1. Usa i campi di trasformazione per mappare i dati agli attributi Amazon Personalize richiesti.

   1. Scegli il tipo di set di dati che corrisponde ai tuoi dati (interazioni, elementi o utenti). 

   1. Scegli il tuo dominio (ECOMMERCE, VIDEO\$1ON\$1DEMAND o personalizzato). Il dominio scelto deve corrispondere al dominio specificato al momento della creazione del gruppo di set di dati.

   1. Scegli le colonne che corrispondono ai campi obbligatori e facoltativi per Amazon Personalize. Ad esempio, per la colonna item\$1ID, scegli la colonna dei tuoi dati che memorizza le informazioni di identificazione uniche per ciascuno dei tuoi articoli. 

      Ogni campo della colonna viene filtrato per tipo di dati. Sono disponibili solo le colonne dei dati che soddisfano i requisiti del tipo di dati di Amazon Personalize. Se i tuoi dati non sono del tipo richiesto, puoi utilizzare la trasformazione [Parse Value as Type](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type) Data Wrangler per convertirli.

## Trasformazioni di General Data Wrangler
<a name="dw-general-transform"></a>

 Le seguenti trasformazioni generali di Data Wrangler possono aiutarti a preparare i dati per Amazon Personalize: 
+ Conversione del tipo di dati: se il campo non è elencato come opzione possibile nelle **colonne della mappa per Amazon Personalize** transform, potrebbe essere necessario convertirne il tipo di dati. La trasformazione di Data Wrangler [Parse Value as Type](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type) può aiutarti a convertire i tuoi dati. Oppure puoi utilizzare la trasformazione **dei tipi di dati** che Data Wrangler aggiunge per impostazione predefinita quando crei un flusso. **Per utilizzare questa trasformazione, scegli il tipo di dati dagli elenchi a discesa **Tipo**, scegli **Anteprima e quindi scegli Aggiorna**.**

   Per informazioni sui tipi di dati richiesti per i campi, consulta la sezione relativa al dominio e al tipo di set di dati. [Creazione di file JSON di schema per schemi Amazon Personalize](how-it-works-dataset-schema.md) 
+ [Gestione dei valori mancanti e dei valori anomali: se generi valori mancanti o valori anomali, puoi utilizzare le trasformazioni di Data Wrangler Handle Outliers e Handle Missing Values per [risolvere questi problemi](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-handle-outlier).](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-handle-missing) 
+  Trasformazioni personalizzate: con Data Wrangler, puoi creare le tue trasformazioni con Python (funzione definita dall'utente) PySpark, panda o (SQL). PySpark È possibile utilizzare una trasformazione personalizzata per eseguire attività come eliminare colonne duplicate o raggruppare per colonne. Per ulteriori informazioni, consulta [Custom Transforms](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-custom) nella *Amazon SageMaker AI Developer Guide*. 

# Generazione di visualizzazioni e approfondimenti sui dati
<a name="dw-analyze-data"></a>

Dopo aver importato i dati in Data Wrangler, puoi utilizzarli per generare visualizzazioni e approfondimenti sui dati. 
+  **[Visualizzazioni](#dw-visualizing-data)**: Data Wrangler può generare diversi tipi di grafici, come istogrammi e grafici a dispersione. Ad esempio, puoi generare un istogramma per identificare i valori anomali nei dati. 
+ **[Informazioni sui dati](#dw-generating-insights)**: puoi utilizzare un *rapporto sulla qualità e gli approfondimenti dei dati per Amazon Personalize per conoscere i* tuoi dati attraverso approfondimenti sui dati e statistiche su colonne e righe. Questo rapporto può farti sapere se hai problemi di qualsiasi tipo nei tuoi dati. E puoi scoprire quali azioni puoi intraprendere per migliorare i tuoi dati. Queste azioni possono aiutarti a soddisfare i requisiti di risorse di Amazon Personalize, come i requisiti di formazione dei modelli, oppure possono portare a consigli migliori.

 Dopo aver appreso i dati attraverso visualizzazioni e approfondimenti, puoi utilizzare queste informazioni per aiutarti ad applicare ulteriori trasformazioni per migliorare i tuoi dati. Oppure, se hai finito di preparare i dati, puoi elaborarli e importarli in Amazon Personalize. Per informazioni sulla trasformazione dei dati, consulta. [Trasformazione dei dati](dw-transform-data.md) Per informazioni sull'elaborazione e l'importazione dei dati, vedere. [Elaborazione dei dati e loro importazione in Amazon Personalize](dw-export-data.md) 

## Generazione di visualizzazioni
<a name="dw-visualizing-data"></a>

È possibile utilizzare Data Wrangler per creare diversi tipi di grafici, come istogrammi e grafici a dispersione. Ad esempio, puoi generare un istogramma per identificare i valori anomali nei dati. Per generare una visualizzazione dei dati, aggiungi una fase di **analisi** al flusso e, da **Tipo di analisi**, scegli la visualizzazione che desideri creare. 

 Per ulteriori informazioni sulla creazione di visualizzazioni in Data Wrangler, consulta [Analizza e](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-analyses.html) visualizza nella *Amazon SageMaker * AI Developer Guide. 

## Generazione di approfondimenti sui dati
<a name="dw-generating-insights"></a>

 Puoi utilizzare Data Wrangler per generare un **rapporto Data Quality and Insights per Amazon Personalize specifico per** il tuo tipo di set di dati. Prima di generare il report, ti consigliamo di trasformare i dati per soddisfare i requisiti di Amazon Personalize. Ciò porterà a informazioni più pertinenti. Per ulteriori informazioni, consulta [Trasformazione dei dati](dw-transform-data.md). 

**Topics**
+ [Contenuto del rapporto](#dw-report-content)
+ [Generazione del report](#dw-generating-insight-report)

### Contenuto del rapporto
<a name="dw-report-content"></a>

Il **rapporto Data Quality and Insights per Amazon Personalize include le** seguenti sezioni: 
+ **Riepilogo:** il riepilogo del rapporto include statistiche sui set di dati e avvisi ad alta priorità:
  + **Statistiche sui set di dati: includono statistiche** specifiche di Amazon Personalize, come il numero di utenti unici nei dati di interazione, e statistiche generali, come il numero di valori mancanti o valori anomali.
  +  **Avvertenze ad alta priorità:** si tratta di informazioni specifiche di Amazon Personalize che hanno il maggiore impatto sulla formazione o sui consigli. Ogni avviso include un'azione consigliata che puoi intraprendere per risolvere il problema. 
+  **Righe duplicate e righe incomplete:** queste sezioni includono informazioni su quali righe hanno valori mancanti e quali righe sono duplicate nei dati. 
+  **Riepilogo delle funzionalità:** questa sezione include il tipo di dati per ogni colonna, le informazioni sui dati non valide o mancanti e il numero di avvisi. 
+  **Dettagli sulle funzionalità:** questa sezione include sottosezioni con informazioni dettagliate per ciascuna colonna di dati. Ogni sottosezione include statistiche per la colonna, ad esempio il conteggio dei valori categoriali e le informazioni sui valori mancanti. Inoltre, ogni sottosezione include approfondimenti specifici di Amazon Personalize e azioni consigliate per le colonne di dati. Ad esempio, un'analisi potrebbe indicare che una colonna ha più di 30 categorie possibili. 

#### Problemi relativi al tipo di dati
<a name="dw-report-type-issues"></a>

 Il rapporto identifica le colonne che non sono del tipo di dati corretto e specifica il tipo richiesto. Per ottenere informazioni dettagliate relative a queste funzionalità, è necessario convertire il tipo di dati della colonna e generare nuovamente il rapporto. Per convertire il tipo, puoi utilizzare la trasformazione di Data Wrangler [Parse Value](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-transform.html#data-wrangler-transform-cast-type) as Type. 

#### Informazioni dettagliate su Amazon Personalize
<a name="dw-report-insights"></a>

Gli approfondimenti di Amazon Personalize includono una scoperta e un'azione suggerita. L'azione è facoltativa. Ad esempio, il rapporto potrebbe includere informazioni e azioni relative al numero di categorie per una colonna di dati categoriali. Se non ritieni che la colonna sia categorica, puoi ignorare questa informazione e non intraprendere alcuna azione.

 Fatta eccezione per piccole differenze di formulazione, le informazioni specifiche di Amazon Personalize sono le stesse delle informazioni su *un singolo* set di dati che potresti generare quando analizzi i tuoi dati con Amazon Personalize. Ad esempio, il rapporto di approfondimento di Data Wrangler include approfondimenti come «Il set di dati sulle interazioni di The Item ha solo X utenti unici con due o più interazioni». *Ma non include approfondimenti come «L'X% degli elementi nel set di dati Items non ha interazioni nel *set* di dati sulle interazioni Item».*

 Per un elenco di possibili approfondimenti specifici di Amazon Personalize, consulta gli approfondimenti che non fanno riferimento a più set di dati in. [Informazioni approfondite sui dati](analyzing-data.md#data-insights)

#### Esempi di report
<a name="dw-insight-report-examples"></a>

L'aspetto del report Amazon Personalize è lo stesso del report General Insights di Data Wrangler. Per alcuni esempi del rapporto di approfondimento generale, consulta [Get Insights On Data and Data Quality](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler-data-insights.html) nella *Amazon SageMaker AI Developer Guide*. L'esempio seguente mostra come funziona la sezione di riepilogo di un report per un set di dati sulle interazioni tra articoli. Include le statistiche sui set di dati e alcuni possibili avvisi sul set di dati sulle interazioni tra elementi ad alta priorità.

![\[Rappresenta la sezione di riepilogo di un rapporto per un set di dati sulle interazioni tra elementi.\]](http://docs.aws.amazon.com/it_it/personalize/latest/dg/images/dw-reports-summary.png)


 L'esempio seguente mostra come potrebbe apparire in un report la sezione dei dettagli delle funzionalità per una colonna EVENT\$1TYPE di un set di dati di interazioni tra elementi. 

![\[Rappresenta la sezione dei dettagli delle funzionalità per una colonna EVENT_TYPE di un set di dati di interazioni tra elementi.\]](http://docs.aws.amazon.com/it_it/personalize/latest/dg/images/dw-event-type-report.png)


### Generazione del report
<a name="dw-generating-insight-report"></a>

Per generare il **rapporto sulla qualità e gli approfondimenti dei dati per Amazon Personalize**, scegli **Ottieni informazioni sui dati** per la tua trasformazione e crea un'analisi.

**Per generare report sulla qualità e sugli approfondimenti dei dati per Amazon Personalize**

1. Scegli l'opzione **\$1** per la trasformazione che stai analizzando. Se non hai aggiunto una trasformazione, scegli **\$1** per la trasformazione **dei tipi di dati**. Data Wrangler aggiunge questa trasformazione automaticamente al tuo flusso. 

1. Scegli **Ottieni informazioni approfondite sui dati**. Viene visualizzato il pannello di **analisi Crea**.

1. Per il **tipo di analisi**, scegli **Data Quality and Insights Report for Amazon Personalize**. 

1.  Per il **tipo di set di** dati, scegli il tipo di set di dati Amazon Personalize che stai analizzando. 

1. **Facoltativamente, scegli Esegui su dati completi.** Per impostazione predefinita, Data Wrangler genera approfondimenti solo su un campione dei tuoi dati. 

1. Scegli **Create** (Crea). Al termine dell'analisi, viene visualizzato il rapporto. 

# Elaborazione dei dati e loro importazione in Amazon Personalize
<a name="dw-export-data"></a>

 Quando hai finito di analizzare e trasformare i tuoi dati, sei pronto per elaborarli e importarli in Amazon Personalize. 
+  **[Elaborazione dei dati](#dw-process-data)**: l'elaborazione dei dati applica la trasformazione all'intero set di dati e la invia a una destinazione specificata. In questo caso si specifica un bucket Amazon S3. 
+ **[Importazione di dati in Amazon](#dw-import-into-personalize)** Personalize: per importare dati elaborati in Amazon Personalize, utilizzi un Jupyter Notebook fornito in AI Studio Classic. SageMaker Questo notebook crea i tuoi set di dati Amazon Personalize e importa i tuoi dati in essi. 

## Elaborazione di dati
<a name="dw-process-data"></a>

 Prima di importare i dati in Amazon Personalize, devi applicare la trasformazione all'intero set di dati e inviarla in un bucket Amazon S3. A tale scopo, crei un nodo di destinazione con la destinazione impostata su un bucket Amazon S3, quindi avvii un processo di elaborazione per la trasformazione.

Per step-by-step istruzioni su [come specificare una destinazione e avviare un processo, consulta Avvio di processi di elaborazione con pochi clic utilizzando Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/launch-processing-jobs-with-a-few-clicks-using-amazon-sagemaker-data-wrangler/) Data Wrangler. Quando aggiungi una destinazione, scegli **Amazon S3**. Utilizzerai questa posizione per importare i dati elaborati in Amazon Personalize.

Al termine dell'elaborazione dei dati, sei pronto per importarli dal bucket Amazon S3 in Amazon Personalize.

## Importazione di dati in Amazon Personalize
<a name="dw-import-into-personalize"></a>

Dopo aver elaborato i dati, sei pronto per importarli in Amazon Personalize. Per importare i dati elaborati in Amazon Personalize, esegui un Jupyter Notebook fornito in AI Studio Classic. SageMaker Questo notebook crea i tuoi set di dati Amazon Personalize e importa i tuoi dati in essi.

**Per importare dati elaborati in Amazon Personalize**

1. Per la trasformazione che desideri esportare, scegli **Esporta** in e scegli **Amazon Personalize (tramite Jupyter** Notebook).

1. Modifica il notebook per specificare il bucket Amazon S3 che hai usato come destinazione dei dati per il processo di elaborazione. Facoltativamente, specifica il dominio per il tuo gruppo di set di dati. Per impostazione predefinita, il notebook crea un gruppo di set di dati personalizzato.

1. Controlla le celle del notebook che creano lo schema. Verifica che i campi dello schema abbiano i tipi e gli attributi previsti prima di eseguire la cella. 
   +  Verifica che i campi che supportano dati nulli siano `null` elencati nell'elenco dei tipi. L'esempio seguente mostra come aggiungere `null` un campo. 

     ```
     {
       "name": "GENDER",
       "type": [
         "null",
         "string"
       ],
       "categorical": true
     }
     ```
   +  Verifica che l'attributo categorico dei campi categorici sia impostato su true. L'esempio seguente mostra come contrassegnare un campo come categorico. 

     ```
     {
               "name": "SUBSCRIPTION_MODEL",
               "type": "string",
               "categorical": true
     }
     ```
   + Verificate che l'attributo testuale dei campi testuali sia impostato su true. L'esempio seguente mostra come contrassegnare un campo come testuale.

     ```
     {
           "name": "DESCRIPTION",
           "type": [
             "null",
             "string"
           ],
           "textual": true
     }
     ```

1. Esegui il notebook per creare uno schema, creare un set di dati e importare i dati nel set di dati Amazon Personalize. Gestisci il notebook proprio come faresti con un notebook al di fuori di SageMaker AI Studio Classic. [Per informazioni sull'esecuzione dei notebook Jupyter, consulta Running Code.](https://jupyter-notebook.readthedocs.io/en/stable/examples/Notebook/Running Code.html) *Per informazioni sui notebook in SageMaker AI Studio Classic, consulta Usa [Amazon AI Notebooks nella Amazon SageMaker AI Developer Guide](https://docs.aws.amazon.com/sagemaker/latest/dg/notebooks.html). SageMaker *

    Dopo aver completato il taccuino, se hai importato i dati sulle interazioni, sei pronto per creare consigli o risorse personalizzate. Oppure puoi ripetere il processo con un set di dati di elementi o un set di dati degli utenti.
   + Per informazioni sulla creazione di un sistema di raccomandazione di dominio, consulta. [Consigliatori di domini in Amazon Personalize](creating-recommenders.md) 
   + Per informazioni sulla creazione e la distribuzione di risorse personalizzate, vedere. [Risorse personalizzate per la formazione e l'implementazione di modelli Amazon Personalize](create-custom-resources.md)

# Importazione di singoli record in un set di dati Amazon Personalize
<a name="incremental-data-updates"></a>

 Al termine[Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md), puoi importare singoli record, tra cui interazioni tra elementi, utenti, elementi, azioni o interazioni tra azioni, in un set di dati esistente. L'importazione individuale dei dati consente di aggiungere piccoli batch di record ai set di dati di Amazon Personalize man mano che il catalogo cresce. Puoi importare fino a 10 record per singola operazione di importazione.

Se importi un elemento, un utente o un'azione con lo stesso ID di un record già presente nel tuo set di dati, Amazon Personalize lo sostituisce con il nuovo record. Se registri due eventi di interazione tra elementi o azioni con esattamente lo stesso timestamp e proprietà identiche, Amazon Personalize conserva solo uno degli eventi.

Se usi Apache Kafka, puoi utilizzare il connettore *Kafka per Amazon Personalize per trasmettere dati in tempo reale ad Amazon Personalize*. Per informazioni, consulta [Kafka Connector per Amazon Personalize](https://github.com/aws/personalize-kafka-connector/blob/main/README.md) nel *personalize-kafka-connector*repository Github.

 Se disponi di una grande quantità di documenti storici, ti consigliamo di importare prima i dati in blocco e poi di importarli singolarmente, se necessario. Consultare [Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati](bulk-data-import-step.md). 

**Filtra gli aggiornamenti per le importazioni di singoli record**

Amazon Personalize aggiorna tutti i filtri creati nel gruppo di set di dati con i nuovi dati di interazione, elemento e utente entro 20 minuti dall'ultima importazione individuale. Questo aggiornamento consente alle tue campagne di utilizzare i dati più recenti per filtrare i consigli per i tuoi utenti. 

Se hai già creato un programma di raccomandazione o distribuito una versione della soluzione personalizzata con una campagna, il modo in cui i nuovi record individuali influiscono sui consigli dipende dal caso d'uso del dominio o dalla ricetta che utilizzi. Per ulteriori informazioni, consulta [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md).

**Topics**
+ [Importazione delle interazioni singolarmente](importing-interactions.md)
+ [Importazione di utenti singolarmente](importing-users.md)
+ [Importazione di articoli singolarmente](importing-items.md)
+ [Importazione di azioni singolarmente](importing-actions.md)

# Importazione delle interazioni singolarmente
<a name="importing-interactions"></a>

 Dopo aver completato la creazione [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md) di un set di dati sulle interazioni tra oggetti, puoi importare singolarmente uno o più nuovi eventi nel set di dati. Per importare *[gli eventi](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event)* di interazione singolarmente, create un *[tracker degli](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event-tracker)* eventi e quindi importate uno o più eventi nel set di dati sulle interazioni degli oggetti. Puoi importare eventi storici di interazioni individuali utilizzando la console Amazon Personalize o importare eventi storici o in tempo reale utilizzando AWS Command Line Interface (AWS CLI) o il. AWS SDKs

Questa sezione include informazioni sull'importazione di eventi con la console Amazon Personalize. Ti consigliamo di utilizzare la console Amazon Personalize per importare *solo* eventi storici. Per informazioni sull'utilizzo di AWS CLI o AWS SDKs per registrare eventi in tempo reale, consulta[Registrazione di eventi in tempo reale per influenzare le raccomandazioni](recording-events.md). 

Per informazioni su come Amazon Personalize aggiorna i filtri per i nuovi record e su come i nuovi record influiscono sui consigli, consulta. [Importazione di singoli record in un set di dati Amazon Personalize](incremental-data-updates.md) 

**Topics**
+ [Creazione di un tracker di eventi (console)](#event-tracker-console)
+ [Importazione di eventi singolarmente (console)](#importing-interactions-console)

## Creazione di un tracker di eventi (console)
<a name="event-tracker-console"></a>

**Nota**  
 Se hai creato un tracker di eventi, puoi passare a. [Importazione di eventi singolarmente (console)](#importing-interactions-console) 

Prima di poter importare un evento in un set di dati Interactions, devi creare un *[tracker di eventi](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#event-tracker)* per il gruppo di set di dati. 

**Per creare un tracker di eventi (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1.  Nella pagina dei **gruppi di set** di dati, scegli il gruppo di set di dati con il set di dati sulle interazioni degli elementi in cui desideri importare gli eventi.

1. **Nella **dashboard** per il gruppo di set di dati, in **Install event ingestion** SDK, scegli Start.** 

1. **Nella pagina **Configura tracker**, nelle **configurazioni Tracker, per Tracker** **name, fornisci un nome per il tracker** di eventi e scegli Avanti.**

1. La pagina **Installa l'SDK** mostra l'**ID di tracciamento** per il nuovo tracker di eventi e le istruzioni per l'utilizzo o lo streaming dei dati sugli eventi. AWS Amplify AWS Lambda 

   Puoi ignorare queste informazioni perché stai utilizzando la console Amazon Personalize per caricare i dati degli eventi. Se desideri trasmettere in streaming i dati degli eventi utilizzando AWS Amplify o AWS Lambda in futuro, puoi visualizzare queste informazioni scegliendo l'event tracker nella pagina **Event tracker**. 

1. Scegli **Fine**. Ora puoi importare eventi con la console (vedi) [Importazione di eventi singolarmente (console)](#importing-interactions-console) o registrare eventi in tempo reale usando l'`PutEvents`operazione (vedi). [Registrazione di eventi in tempo reale per influenzare le raccomandazioni](recording-events.md) 

## Importazione di eventi singolarmente (console)
<a name="importing-interactions-console"></a>

 Dopo aver creato un tracker di eventi, puoi importare gli eventi singolarmente in un set di dati sulle interazioni degli elementi. Questa procedura presuppone che tu abbia già creato un set di dati sulle interazioni tra oggetti. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

**Per importare eventi singolarmente (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1. Nella pagina dei **gruppi di set** di dati, scegli il gruppo di set di dati con il set di dati sulle interazioni degli elementi in cui desideri importare gli eventi. 

1. **Nel riquadro di navigazione, scegli set di dati.** 

1. Nella pagina Set di dati, scegli il **set** di dati Interazioni. 

1. **Nella parte superiore destra della pagina dei dettagli del set di dati, scegli **Modifica set** di dati e scegli Crea record.** 

1. Nella pagina **Crea record di interazione utente-elemento**, per **Registra input**, inserisci i dettagli dell'evento in formato JSON. I nomi e i valori dei campi dell'evento devono corrispondere allo schema utilizzato durante la creazione del set di dati sulle interazioni degli elementi. Amazon Personalize fornisce un modello JSON con nomi di campo e tipi di dati di questo schema. Puoi importare fino a 10 eventi alla volta.

1. Scegli **Crea record**. In **Response**, viene elencato il risultato dell'importazione e viene visualizzato un messaggio di successo o di fallimento. 

# Importazione di utenti singolarmente
<a name="importing-users"></a>

 Dopo aver completato la creazione [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md) di un set di dati Users, puoi importare singolarmente uno o più nuovi utenti nel set di dati. L'importazione individuale degli utenti consente di mantenere aggiornato il set di dati Users con importazioni in piccoli batch man mano che il catalogo cresce. Puoi importare fino a 10 utenti alla volta. Se hai un gran numero di nuovi utenti, ti consigliamo di importare prima i dati in blocco e poi di importare i dati utente singolarmente, se necessario. Per informazioni, consulta [Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati](bulk-data-import-step.md). 

Puoi utilizzare la console Amazon Personalize, il AWS Command Line Interface (AWS CLI) o AWS SDKs importare utenti. Se importi un utente con lo `userId` stesso nome di un utente già presente nel set di dati Users, Amazon Personalize sostituisce l'utente con uno nuovo. Puoi importare fino a 10 utenti alla volta.

Per informazioni su come Amazon Personalize aggiorna i filtri per i nuovi record e su come i nuovi record influiscono sui consigli, consulta. [Importazione di singoli record in un set di dati Amazon Personalize](incremental-data-updates.md) 

**Topics**
+ [Importazione di utenti singolarmente (console)](#importing-users-console)
+ [Importazione di utenti singolarmente ()AWS CLI](#importing-users-cli)
+ [Importazione di utenti singolarmente ()AWS SDKs](#importing-users-sdk)

## Importazione di utenti singolarmente (console)
<a name="importing-users-console"></a>

Puoi importare fino a 10 utenti alla volta. Questa procedura presuppone che tu abbia già creato un set di dati Users. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

**Per importare utenti singolarmente (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1. Nella pagina **Gruppi di set** di dati, scegli il gruppo di set di dati con il set di dati Utenti in cui desideri importare l'utente. 

1. **Nel riquadro di navigazione, scegli Datasets.** 

1. Nella pagina Set di **dati, scegli il set** di dati Utenti. 

1. **Nella pagina dei dettagli del set di dati, in alto a destra, scegli **Modifica set** di dati e scegli Crea record.** 

1. Nella pagina **Crea record utente, per l'immissione dei** record, inserisci i dettagli dell'utente in formato JSON. I nomi e i valori dei campi dell'utente devono corrispondere allo schema utilizzato durante la creazione del set di dati Users. Amazon Personalize fornisce un modello JSON con nomi di campo e tipi di dati di questo schema. 

1. Scegli **Crea record.** In **Response**, viene elencato il risultato dell'importazione e viene visualizzato un messaggio di successo o di fallimento.

## Importazione di utenti singolarmente ()AWS CLI
<a name="importing-users-cli"></a>

Aggiungi uno o più utenti al set di dati Users con l'[PutUsers](API_UBS_PutUsers.md)operazione. Puoi importare fino a 10 utenti con una singola `PutUsers` chiamata. Questa sezione presuppone che tu abbia già creato un set di dati Users. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

Utilizzare il `put-users` comando seguente per aggiungere uno o più utenti con. AWS CLI Sostituisci `dataset arn` con l'Amazon Resource Name (ARN) del tuo set di dati e `user Id` con l'ID dell'utente. Se un utente con lo stesso nome `userId` è già presente nel set di dati Users, Amazon Personalize lo sostituisce con quello nuovo.

Infatti`properties`, per ogni campo del set di dati Users, sostituiscilo `propertyName` con il nome del campo del tuo schema, nel caso camel. Ad esempio, GENDER sarebbe `gender` e MEMBERSHIP\$1TYPE sarebbe. `membershipType` Sostituisci `user data` con i dati relativi all'utente. Per i dati di tipo stringa categorico, per includere più categorie per una singola proprietà, separate ogni categoria con una pipe (`|`). Ad esempio, `\"Premium Class|Legacy Member\"`.

```
aws personalize-events put-users \
  --dataset-arn dataset arn \
  --users '[{
      "userId": "user Id", 
      "properties": "{\"propertyName\": "\user data\"}" 
    }, 
    {
      "userId": "user Id", 
      "properties": "{\"propertyName\": "\user data\"}" 
    }]'
```

## Importazione di utenti singolarmente ()AWS SDKs
<a name="importing-users-sdk"></a>

Aggiungi uno o più utenti al set di dati Users con l'[PutUsers](API_UBS_PutUsers.md)operazione. Se un utente con lo stesso nome `userId` è già presente nel set di dati Users, Amazon Personalize lo sostituisce con quello nuovo. Puoi importare fino a 10 utenti con una singola chiamata. `PutUsers` Questa sezione presuppone che tu abbia già creato un set di dati Users. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

 Il codice seguente mostra come aggiungere uno o più utenti al set di dati Users. Per ogni parametro del nome della proprietà, passa il nome del campo dallo schema nel caso camel. Ad esempio, GENDER sarebbe `gender` e MEMBERSHIP\$1TYPE sarebbe. `membershipType` Per ogni parametro del valore della proprietà, trasmetti i dati per l'utente. 

Per i dati di tipo stringa categorico, per includere più categorie per una singola proprietà, separate ogni categoria con una pipe (`|`). Ad esempio, `"Premium class|Legacy Member"`.

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_users(
    datasetArn = 'dataset arn',
    users = [{
      'userId': 'user ID',
      'properties': "{\"propertyName\": \"user data\"}"   
      },
      {
      'userId': 'user ID',
      'properties': "{\"propertyName\": \"user data\"}"   
      }]
)
```

------
#### [ SDK for Java 2.x ]

```
public static int putUsers(PersonalizeEventsClient personalizeEventsClient,
                         String datasetArn,
                         String user1Id,
                         String user1PropertyName,
                         String user1PropertyValue,
                         String user2Id,
                         String user2PropertyName,
                         String user2PropertyValue) {

    int responseCode = 0;
    ArrayList<User> users = new ArrayList<>();

    try {
        User user1 = User.builder()
          .userId(user1Id)
          .properties(String.format("{\"%1$s\": \"%2$s\"}", user1PropertyName, user1PropertyValue))
          .build();

        users.add(user1);

        User user2 = User.builder()
          .userId(user2Id)
          .properties(String.format("{\"%1$s\": \"%2$s\"}", user2PropertyName, user2PropertyValue))
          .build();

        users.add(user2);

        PutUsersRequest putUsersRequest = PutUsersRequest.builder()
          .datasetArn(datasetArn)
          .build();

        responseCode = personalizeEventsClient.putUsers(putUsersRequest).sdkHttpResponse().statusCode();
        System.out.println("Response code: " + responseCode);
        return responseCode;

    } catch (PersonalizeEventsException e) {
        System.out.println(e.awsErrorDetails().errorMessage());
    }
    return responseCode;
}
```

------
#### [ SDK for JavaScript v3 ]

```
import {
  PutUsersCommand,
  PersonalizeEventsClient,
} from "@aws-sdk/client-personalize-events";

const personalizeEventsClient = new PersonalizeEventsClient({
  region: "REGION",
});

// set the put users parameters
var putUsersParam = {
  datasetArn:
    "DATASET ARN",
  users: [
    {
      userId: "userId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
    {
      userId: "userId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
  ],
};
export const run = async () => {
  try {
    const response = await personalizeEventsClient.send(
      new PutUsersCommand(putUsersParam)
    );
    console.log("Success!", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

# Importazione di articoli singolarmente
<a name="importing-items"></a>

Dopo aver completato la creazione [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md) di un set di dati Items, puoi importare singolarmente uno o più nuovi elementi nel set di dati. L'importazione individuale degli articoli consente di mantenere aggiornato il set di dati Items con importazioni in piccoli lotti man mano che il catalogo cresce. Puoi importare fino a 10 articoli alla volta. Se hai una grande quantità di nuovi articoli, ti consigliamo di importare prima i dati in blocco e poi di importare i dati degli articoli singolarmente, se necessario. Per informazioni, consulta [Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati](bulk-data-import-step.md).

Puoi utilizzare la console Amazon Personalize, il AWS Command Line Interface (AWS CLI) o AWS SDKs per importare articoli. Se importi un articolo con lo `itemId` stesso articolo già presente nel set di dati Items, Amazon Personalize lo sostituisce con il nuovo articolo.

 Per informazioni su come Amazon Personalize aggiorna i filtri per i nuovi record e su come i nuovi record influiscono sui consigli, consulta. [Importazione di singoli record in un set di dati Amazon Personalize](incremental-data-updates.md) 

**Topics**
+ [Importazione di elementi singolarmente (console)](#importing-items-console)
+ [Importazione di elementi singolarmente ()AWS CLI](#importing-items-cli)
+ [Importazione di elementi singolarmente ()AWS SDKs](#importing-items-cli-sdk)

## Importazione di elementi singolarmente (console)
<a name="importing-items-console"></a>

È possibile importare fino a 10 elementi alla volta in un set di dati Items. Questa procedura presuppone che tu abbia già creato un set di dati Items. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

**Per importare gli elementi singolarmente (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1. Nella pagina **Gruppi di set** di dati, scegli il gruppo di set di dati con il set di dati Items in cui desideri importare gli articoli. 

1. **Nel riquadro di navigazione, scegli Datasets.** 

1. Nella pagina Set di dati, scegli il **set** di dati Items. 

1. **Nella parte superiore destra della pagina dei dettagli del set di dati, scegli **Modifica set** di dati, quindi scegli Crea record.** 

1. Nella pagina **Crea record di elementi**, per **Registra input**, inserisci i dettagli dell'elemento in formato JSON. I nomi e i valori dei campi dell'elemento devono corrispondere allo schema utilizzato durante la creazione del set di dati Items. Amazon Personalize fornisce un modello JSON con nomi di campo e tipi di dati di questo schema.

1. Scegli **Crea record.** In **Response**, viene elencato il risultato dell'importazione e viene visualizzato un messaggio di successo o di fallimento.

## Importazione di elementi singolarmente ()AWS CLI
<a name="importing-items-cli"></a>

Aggiungi uno o più elementi al set di dati Items utilizzando l'[PutItems](API_UBS_PutItems.md)operazione. È possibile importare fino a 10 elementi con una singola `PutItems` chiamata. Questa sezione presuppone che tu abbia già creato un set di dati Items. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

Utilizzate il `put-items` comando seguente per aggiungere uno o più elementi con. AWS CLI Sostituiscilo `dataset arn` con l'Amazon Resource Name (ARN) del tuo set di dati e `item Id` con l'ID dell'articolo. Se un articolo con lo stesso valore `itemId` è già presente nel set di dati Items, Amazon Personalize lo sostituisce con uno nuovo.

Infatti`properties`, per ogni campo del set di dati Items, sostituiscilo `propertyName` con il nome del campo dello schema, nel caso camel. Ad esempio, GENRES sarebbe `genres` e CREATION\$1TIMESTAMP sarebbe CreationTimestamp. `item data`Sostituisci con i dati dell'elemento. `CREATION_TIMESTAMP`i dati devono essere in [formato Unix epoch Time](interactions-datasets.md#timestamp-data) ed espressi in secondi. Per i dati di tipo stringa categorico, per includere più categorie per una singola proprietà, separate ogni categoria con una pipe (). `|` Ad esempio, `\"Horror|Action\"`.

```
aws personalize-events put-items \
  --dataset-arn dataset arn \
  --items '[{
      "itemId": "item Id", 
      "properties": "{\"propertyName\": "\item data\"}" 
    }, 
    {
      "itemId": "item Id", 
      "properties": "{\"propertyName\": "\item data\"}" 
    }]'
```

## Importazione di elementi singolarmente ()AWS SDKs
<a name="importing-items-cli-sdk"></a>

Aggiungi uno o più elementi al set di dati Items utilizzando l'[PutItems](API_UBS_PutItems.md)operazione. È possibile importare fino a 10 elementi con una singola `PutItems` chiamata. Se un articolo con lo stesso valore `itemId` è già presente nel set di dati Items, Amazon Personalize lo sostituisce con uno nuovo. Questa sezione presuppone che tu abbia già creato un set di dati Items. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

 Il codice seguente mostra come aggiungere uno o più elementi al set di dati Items. Per ogni parametro del nome della proprietà, passa il nome del campo dallo schema nel caso camel. Ad esempio, GENRES sarebbe `genres` e CREATION\$1TIMESTAMP lo sarebbe. `creationTimestamp` Per ogni parametro del valore della proprietà, passa i dati per l'elemento. `CREATION_TIMESTAMP`i dati devono essere in [formato Unix epoch time](interactions-datasets.md#timestamp-data) ed espressi in secondi. 

Per i dati di tipo stringa categorico, per includere più categorie per una singola proprietà, separate ogni categoria con una pipe (). `|` Ad esempio, `"Horror|Action"`.

------
#### [ SDK for Python (Boto3) ]

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_items(
    datasetArn = 'dataset arn',
    items = [{
      'itemId': 'item ID',
      'properties': "{\"propertyName\": \"item data\"}"   
      },
      {
      'itemId': 'item ID',
      'properties': "{\"propertyName\": \"item data\"}"   
      }]
)
```

------
#### [ SDK for Java 2.x ]

```
public static int putItems(PersonalizeEventsClient personalizeEventsClient,
                           String datasetArn,
                           String item1Id,
                           String item1PropertyName,
                           String item1PropertyValue,
                           String item2Id,
                           String item2PropertyName,
                           String item2PropertyValue) {

    int responseCode = 0;
    ArrayList<Item> items = new ArrayList<>();

    try {
        Item item1 = Item.builder()
                .itemId(item1Id)
                .properties(String.format("{\"%1$s\": \"%2$s\"}",
                        item1PropertyName, item1PropertyValue))
                .build();

        items.add(item1);

        Item item2 = Item.builder()
                .itemId(item2Id)
                .properties(String.format("{\"%1$s\": \"%2$s\"}",
                        item2PropertyName, item2PropertyValue))
                .build();

        items.add(item2);

        PutItemsRequest putItemsRequest = PutItemsRequest.builder()
                .datasetArn(datasetArn)
                .items(items)
                .build();

        responseCode = personalizeEventsClient.putItems(putItemsRequest).sdkHttpResponse().statusCode();
        System.out.println("Response code: " + responseCode);
        return responseCode;

    } catch (PersonalizeEventsException e) {
        System.out.println(e.awsErrorDetails().errorMessage());
    }
    return responseCode;
    }
```

------
#### [ SDK for JavaScript v3 ]

```
import {
  PutItemsCommand,
  PersonalizeEventsClient,
} from "@aws-sdk/client-personalize-events";

const personalizeEventsClient = new PersonalizeEventsClient({
  region: "REGION",
});

// set the put items parameters
var putItemsParam = {
  datasetArn:
    "DATASET ARN",
  items: [
    {
      itemId: "itemId", 
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
    {
      itemId: "itemId",
      properties: '{"column1Name": "value", "column2Name": "value"}',
    },
  ],
};
export const run = async () => {
  try {
    const response = await personalizeEventsClient.send(
      new PutItemsCommand(putItemsParam)
    );
    console.log("Success!", response);
    return response; // For unit tests.
  } catch (err) {
    console.log("Error", err);
  }
};
run();
```

------

# Importazione di azioni singolarmente
<a name="importing-actions"></a>

Dopo aver completato la creazione [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md) di un [set di dati Actions](actions-datasets.md), puoi importare singolarmente una o più nuove azioni nel set di dati. Quando importi azioni singolarmente, mantieni aggiornato il set di dati Actions con importazioni in piccoli batch man mano che il catalogo cresce. Puoi importare fino a 10 azioni alla volta. Se hai un gran numero di nuove azioni, ti consigliamo di importare prima i dati in blocco e poi di importare i dati delle azioni singolarmente, se necessario. Per informazioni, consulta [Importazione di dati di massa in Amazon Personalize con un processo di importazione di set di dati](bulk-data-import-step.md).

Puoi utilizzare la console Amazon Personalize, il AWS Command Line Interface (AWS CLI) o AWS SDKs importare azioni. Se importi un'azione `actionId` uguale a un'azione già presente nel tuo set di dati Actions, Amazon Personalize la sostituisce con la nuova azione.

Per informazioni su come i nuovi record influiscono sui consigli, consulta. [Aggiornamento dei dati nei set di dati dopo l'allenamento](updating-datasets.md) 

**Topics**
+ [Importazione di azioni singolarmente (console)](#importing-actions-console)
+ [Importazione di azioni singolarmente ()AWS CLI](#importing-actions-cli)
+ [Importazione di azioni singolarmente ()AWS SDKs](#importing-actions-cli-sdk)

## Importazione di azioni singolarmente (console)
<a name="importing-actions-console"></a>

È possibile importare fino a 10 azioni alla volta in un set di dati Actions. Questa sezione presuppone che tu abbia già creato un set di dati Actions. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

**Per importare le azioni singolarmente (console)**

1. Apri la console Amazon Personalize a [https://console.aws.amazon.com/personalize/casa](https://console.aws.amazon.com/personalize/home) e accedi al tuo account.

1. Nella pagina **Gruppi di set** di dati, scegli il gruppo di set di dati con il set di dati Actions a cui desideri aggiungere.

1. **Nel riquadro di navigazione, scegli Datasets.** 

1. Nella pagina Set di dati, scegli il **set** di dati Azioni. 

1. **Nella parte superiore destra della pagina dei dettagli del set di dati, scegli **Modifica set** di dati, quindi scegli Crea record.** 

1. Nella pagina **Crea record di azioni**, per **Registra input**, inserisci i dettagli dell'azione in formato JSON. I nomi e i valori dei campi dell'azione devono corrispondere allo schema utilizzato durante la creazione del set di dati Actions. Amazon Personalize fornisce un modello JSON con nomi di campo e tipi di dati di questo schema.

1. Scegli **Crea record.** In **Response**, viene elencato il risultato dell'importazione e viene visualizzato un messaggio di successo o di fallimento.

## Importazione di azioni singolarmente ()AWS CLI
<a name="importing-actions-cli"></a>

Aggiungi una o più azioni al tuo set di dati Actions utilizzando l'operazione `PutActions` API. Puoi importare fino a 10 azioni contemporaneamente. Questa sezione presuppone che tu abbia già creato un set di dati Actions. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

Utilizzate il `put-actions` comando seguente per aggiungere una o più azioni con. AWS CLI Sostituisci `dataset arn` con l'Amazon Resource Name (ARN) del tuo set di dati e `actionId` con l'ID dell'azione. Se un'azione con lo stesso valore `actionId` è già presente nel tuo set di dati Actions, Amazon Personalize la sostituisce con una nuova.

Infatti`properties`, per ogni campo del set di dati Actions, sostituiscilo `propertyName` con il nome del campo dello schema, nel caso camel. Ad esempio, ACTION\$1EXPIRATION\$1TIMESTAMP sarebbe e CREATION\$1TIMESTAMP sarebbe CreationTimestamp. `actionExpirationTimestamp` `property data`Sostituisci con i dati della proprietà.

```
aws personalize-events put-actions \
  --dataset-arn dataset arn \
  --actions '[{
      "actionId": "actionId", 
      "properties": "{\"propertyName\": "\property data\"}" 
    }, 
    {
      "actionId": "actionId", 
      "properties": "{\"propertyName\": "\property data\"}" 
    }]'
```

## Importazione di azioni singolarmente ()AWS SDKs
<a name="importing-actions-cli-sdk"></a>

Aggiungi una o più azioni al tuo set di dati Actions utilizzando l' PutActions operazione. Puoi importare fino a 10 azioni con una singola `PutActions` chiamata. Se un'azione con lo stesso valore `actionId` è già presente nel tuo set di dati Actions, Amazon Personalize la sostituisce con una nuova. Questa sezione presuppone che tu abbia già creato un set di dati Actions. Per informazioni sulla creazione di set di dati, vedere. [Creazione di uno schema e di un set di dati](data-prep-creating-datasets.md)

 Il codice seguente mostra come aggiungere una o più azioni al set di dati Actions. Per ogni azione, specifica il`actionId`. Se un'azione con lo stesso valore `actionId` è già presente nel tuo set di dati Actions, Amazon Personalize la sostituisce con una nuova. Infatti`properties`, per ogni campo aggiuntivo nel set di dati Actions, sostituiscilo `propertyName` con il nome del campo dello schema, nel caso camel. Ad esempio, ACTION\$1EXPIRATION\$1TIMESTAMP sarebbe e CREATION\$1TIMESTAMP sarebbe CreationTimestamp. `actionExpirationTimestamp` `property data`Sostituisci con i dati della proprietà. 

```
import boto3

personalize_events = boto3.client(service_name='personalize-events')

personalize_events.put_actions(
    datasetArn = 'dataset arn',
    actions = [{
      'actionId': 'actionId',
      'properties': "{\"propertyName\": \"property value\"}"   
      },
      {
      'actionId': 'actionId',
      'properties': "{\"propertyName\": \"property value\"}"   
      }]
)
```