

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Migrazione dei dati Db2 ad Amazon RDS per Db2 tramite Amazon S3
<a name="db2-migration-load-from-s3"></a>

Con questo approccio, devi prima di tutto salvare i dati da una singola tabella in un file di dati da inserire in un bucket Amazon S3. Quindi, devi usare il [comando LOAD](https://www.ibm.com/docs/en/db2/11.5?topic=commands-load) per caricare i dati da quel file di dati in una tabella nel tuo database Amazon RDS per Db2. Per ulteriori informazioni sull’utilizzo di Amazon S3, consulta [Integrazione di un’istanza database Amazon RDS per Db2 con Amazon S3](db2-s3-integration.md).

**Topics**
+ [Salvataggio dei dati in Amazon S3](#db2-migration-load-from-s3-saving-data-file)
+ [Caricamento dei dati nelle tabelle RDS per Db2](#db2-migration-load-from-s3-into-db-table)

## Salvataggio dei dati in Amazon S3
<a name="db2-migration-load-from-s3-saving-data-file"></a>

Per salvare i dati da una singola tabella in Amazon S3, utilizza un’utilità di database per estrarre i dati dal tuo sistema di gestione del database (DBMS) in un file CSV. Carica quindi il file di dati in Amazon S3.

Per archiviare file di dati su Amazon S3, sono necessari i seguenti componenti: AWS 
+ *Un bucket Amazon S3 per archiviare i file di backup*: se disponi già di un bucket S3, puoi utilizzarlo. Se non disponi di un bucket S3, consulta [Creazione di un bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) nella *Guida per l’utente di Amazon S3*.
+ *Un ruolo IAM per accedere al bucket S3*: se disponi già di un ruolo IAM, puoi utilizzarlo. Se non disponi di un ruolo, consulta [Fase 2: creazione di un ruolo IAM e collegamento della policy IAM](db2-s3-integration.md#db2-creating-iam-role). 
+ *Una policy IAM con relazioni di trust e autorizzazioni associate al tuo ruolo IAM*: per ulteriori informazioni, consulta [Fase 1: Creazione di una policy IAM](db2-s3-integration.md#db2-creating-iam-policy).
+ *Il ruolo IAM aggiunto alla tua istanza database RDS per Db2*: per ulteriori informazioni, consulta [Fase 3: aggiunta del ruolo IAM all’istanza database RDS per Db2](db2-s3-integration.md#db2-adding-iam-role).

## Caricamento dei dati nelle tabelle RDS per Db2
<a name="db2-migration-load-from-s3-into-db-table"></a>

Dopo aver salvato i file di dati su Amazon S3, puoi caricare i dati da questi file in singole tabelle sulla tua istanza database RDS per Db2.

**Per caricare i dati della tabella Db2 nella tabella del database RDS per Db2**

1. Connettiti al database `rdsadmin` utilizzando il nome utente e la password principali dell’istanza database RDS per Db2. Nell'esempio seguente, sostituisci *master\$1username* e *master\$1password* con le tue informazioni.

   ```
   db2 connect to rdsadmin user master_username using master_password
   ```

1. Cataloga un alias di accesso all’archiviazione che punti al bucket Amazon S3 in cui sono archiviati i file salvati. Annota il nome di questo alias per utilizzarlo nel passaggio successivo. È sufficiente eseguire questo passaggio una sola volta se prevedi di caricare più tabelle da file di dati memorizzati nello stesso bucket Amazon S3.

   L'esempio seguente cataloga un alias denominato *my\$1s3\$1alias* che concede a un utente denominato l'*jorge\$1souza*accesso a un bucket denominato. *amzn-s3-demo-bucket*

   ```
   db2 "call rdsadmin.catalog_storage_access(?, 'my_s3_alias', 'amzn-s3-demo-bucket', 'USER', 'jorge_souza')"
   ```

   Per ulteriori informazioni su questa stored procedure, consulta [rdsadmin.catalog\$1storage\$1access](db2-sp-managing-storage-access.md#db2-sp-catalog-storage-access).

1. Esegui il comando `LOAD` utilizzando l’alias di accesso all’archiviazione che punta al tuo bucket Amazon S3. 
**Nota**  
Se il comando `LOAD` restituisce un errore, potrebbe essere necessario creare un endpoint gateway VPC per Amazon S3 e aggiungere regole in uscita al gruppo di sicurezza. Per ulteriori informazioni, consulta [I/O Errore nel file](db2-troubleshooting.md#db2-file-input-output-error).

   L'esempio seguente carica i dati da un file di dati denominato in una tabella *my\$1s3\$1datafile.csv* denominata. *my\$1db2\$1table* L'esempio presuppone che il file di dati si trovi nel bucket Amazon S3 a cui punta l'alias *my\$1s3\$1alias* denominato.

   ```
   db2 "load from db2remote://my_s3_alias//my_s3_datafile.csv of DEL insert into my_db2_table";
   ```

   L'esempio seguente viene caricato LOBs da un file di dati denominato in una tabella *my\$1table1\$1export.ixf* denominata. *my\$1db2\$1table* L'esempio presuppone che il file di dati si trovi nel bucket Amazon S3 a cui punta l'alias *my\$1s3\$1alias* denominato.

   ```
   db2 "call sysproc.admin_cmd('load from "db2remote://my_s3_alias//my_table1_export.ixf" of ixf
           lobs from "db2remote://my_s3_alias//" xml from "db2remote://my_s3_alias//"
           modified by lobsinfile implicitlyhiddeninclude identityoverride generatedoverride periodoverride transactionidoverride
           messages on server
           replace into "my_schema"."my_db2_table"
                                  nonrecoverable
           indexing mode incremental allow no access')"
   ```

   Ripeti questo passaggio per ogni file di dati nel bucket Amazon S3 da caricare in una tabella nella tua istanza database RDS per Db2.

   Per ulteriori informazioni sul comando `LOAD`, consulta [LOAD command](https://www.ibm.com/docs/en/db2/11.5?topic=commands-load).