

 Amazon Redshift non supporterà più la creazione di nuovi Python UDFs a partire dalla Patch 198. Python esistente UDFs continuerà a funzionare fino al 30 giugno 2026. Per ulteriori informazioni, consulta il [post del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Caricamento dei dati in Amazon Redshift
<a name="t_Loading_data"></a>

Sono disponibili diversi modi per caricare i dati in un database Amazon Redshift. Una delle origini di dati popolari da caricare sono i file Amazon S3. Nella tabella seguente sono riepilogati alcuni dei metodi da utilizzare con l’avvio da un’origine Amazon S3.

[See the AWS documentation website for more details](http://docs.aws.amazon.com/it_it/redshift/latest/dg/t_Loading_data.html)

Il modo più efficiente per caricare una tabella è il comando COPY. Inoltre, è possibile aggiungere dati alle tabelle usando i comandi INSERT, sebbene sia molto meno efficiente rispetto all'utilizzo di COPY. Il comando COPY è in grado di leggere da più file di dati o più flussi di dati contemporaneamente. Amazon Redshift assegna il carico di lavoro ai nodi Amazon Redshift ed esegue le operazioni di caricamento in parallelo, tra cui l’ordinamento delle righe e la distribuzione dei dati tra le sezioni dei nodi.

**Nota**  
Le tabelle esterne di Amazon Redshift Spectrum sono di sola lettura. Non puoi utilizzare COPY o INSERT in una tabella esterna.

Per accedere ai dati su altre AWS risorse, Amazon Redshift deve disporre dell'autorizzazione ad accedere a tali risorse e a eseguire le azioni necessarie per accedere ai dati. Puoi usare AWS Identity and Access Management (IAM) per limitare l'accesso degli utenti alle risorse e ai dati di Amazon Redshift.

Dopo il caricamento iniziale dei dati, se aggiungi, modifichi o elimini una grande quantità di dati, devi eseguire il follow-up tramite un comando VACUUM per riorganizzare i dati e recuperare spazio dopo le eliminazioni. Devi anche eseguire un comando ANALYZE per aggiornare le statistiche della tabella.

**Topics**
+ [Caricamento delle tabelle con il comando COPY](t_Loading_tables_with_the_COPY_command.md)
+ [Creare un’integrazione di eventi S3 per copiare automaticamente i file dai bucket Amazon S3](loading-data-copy-job.md)
+ [Caricamento di tabelle con comandi DML](t_Updating_tables_with_DML_commands.md)
+ [Esecuzione di una copia completa](performing-a-deep-copy.md)
+ [Analisi delle tabelle](t_Analyzing_tables.md)
+ [Vacuum delle tabelle](t_Reclaiming_storage_space202.md)
+ [Gestione delle operazioni di scrittura simultanee](c_Concurrent_writes.md)
+ [Tutorial: Caricamento dei dati da Amazon S3](tutorial-loading-data.md)