CREATE TABLE
Crea una tabella con il nome e i parametri specificati dall'utente.
Nota
Questa pagina contiene informazioni di riferimento riepilogative. Per ulteriori informazioni sulla creazione delle tabelle in Athena e un esempio di istruzione CREATE TABLE, consulta la sezione Creazione di tabelle in Athena. Per vedere esempio di creazione di un database o di una tabella e di esecuzione di una query SELECT sulla tabella di Athena, consulta Inizia a usare.
Riepilogo
CREATE EXTERNAL TABLE [IF NOT EXISTS]
[db_name.]table_name [(col_name data_type [COMMENT col_comment] [, ...] )]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...) INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[WITH SERDEPROPERTIES (...)]
[LOCATION 's3://amzn-s3-demo-bucket/[folder]/']
[TBLPROPERTIES ( ['has_encrypted_data'='true | false',] ['classification'='aws_glue_classification',] property_name=property_value [, ...] ) ]
Parametri
- EXTERNAL
-
Specifica che la tabella si basa su un file di dati sottostante esistente in Amazon S3 nella posizione specificata dall'utente in
LOCATION. Tranne che durante la creazione di tabelle Iceberg, utilizza sempre la parola chiaveEXTERNAL. Se utilizziCREATE TABLEsenza la parola chiaveEXTERNALper le tabelle non Iceberg, Athena genera un errore. Quando crei una tabella esterna, i dati a cui fai riferimento devono rispettare il formato predefinito o il formato specificato con le clausoleROW FORMAT,STORED ASeWITH SERDEPROPERTIES.
- [IF NOT EXISTS]
-
Questo parametro verifica se esiste già una tabella con lo stesso nome. In caso affermativo, il parametro restituisce
TRUEe Amazon Athena annulla l'azioneCREATE TABLE. Poiché l'annullamento avviene prima che Athena richiami il catalogo dati, non emette un evento AWS CloudTrail. - [db_name.]table_name
-
Specifica un nome per la tabella da creare. Il parametro facoltativo
db_namespecifica il database in cui è presente la tabella. Se omesso, sarà utilizzato il database corrente. Se il nome della tabella include numeri, racchiuditable_nametra virgolette, ad esempio"table123". Setable_nameinizia con un trattino basso, utilizza l'apice inverso, ad esempio`_mytable`. I caratteri speciali (a eccezione del trattino basso) non sono supportati.I nomi di tabella di Athena fanno distinzione tra maiuscole e minuscole; se però utilizzi Apache Spark, dovrai specificare nomi di tabella in minuscolo. Per le restrizioni sui nomi delle tabelle in Athena, vedere. Nomi di tabelle, database e colonne
- [ ( col_name data_type [COMMENT col_comment] [, ...] ) ]
-
Specifica il nome di ogni colonna da creare, insieme al tipo di dati della colonna. Nei nomi di colonna non sono ammessi caratteri speciali diversi dal trattino basso
(_). Secol_nameinizia con un trattino basso, racchiudi il nome della colonna tra apici inversi, ad esempio`_mycolumn`. Per le restrizioni sui nomi delle colonne in Athena, vedere. Nomi di tabelle, database e colonneIl valore
data_typepuò essere qualunque tra i seguenti:-
boolean– i valori validi sonotrueefalse. -
tinyint: un numero intero firmato a 8 bit in formato a due complementi, con un valore minimo pari a -2^7 e un valore massimo pari a 2^7-1. -
smallint: un numero intero firmato a 16 bit in formato a due complementi, con un valore minimo pari a -2^15 e un valore massimo pari a 2^15-1. -
int: nelle query DDL (Data Definition Language) comeCREATE TABLE, utilizzare la parola chiaveintper rappresentare un numero intero. In tutte le altre query, utilizzare la parola chiaveinteger, doveintegerè rappresentato come valore firmato a 32 bit in formato a due complementi, con un valore minimo pari a -2^31 e un valore massimo pari a 2^31-1. Nel driver JDBC viene restituitointegerper garantire la compatibilità con le applicazioni di analisi aziendale. -
bigint: un numero intero firmato a 64 bit in formato a due complementi, con un valore minimo pari a -2^63 e un valore massimo pari a 2^63-1. -
double: un numero a virgola mobile a precisione doppia firmato a 64 bit. L'intervallo va da 4.94065645841246544e-324d a 1.79769313486231570e+308d, positivo o negativo.doublesegue IEEE Standard for Floating-Point Arithmetic (IEEE 754). -
float: un numero a virgola mobile a precisione singola a 32 bit. L'intervallo va da 1.40129846432481707e-45 a 3.40282346638528860e+38, positivo o negativo.floatsegue IEEE Standard for Floating-Point Arithmetic (IEEE 754). Equivalente arealin Presto. In Athena, usafloatnelle istruzioni DDL comeCREATE TABLEerealnelle funzioni SQL comeSELECT CAST. Il crawler AWS Glue restituisce valori infloat, e Athena traduce i tipirealefloatinternamente (vedere le note di rilascio di 5 giugno 2018). -
decimal [ (, doveprecision,scale) ]è il numero totale di cifre eprecision(facoltativo) è il numero di cifre nella parte frazionaria, il valore di default è 0. Ad esempio, è possibile usare il tipo di queste definizioni:scaledecimal(11,5),decimal(15). Il valore massimo per laprecisioneè 38 mentre il valore massimo per lascalaè 38.Per specificare valori decimali come letterali, ad esempio durante la selezione delle righe con un determinato valore decimale nell'espressione di una query DDL, specifica la definizione di tipo
decimale indica il valore decimale come letterale (tra virgolette singole) nella query, come in questo esempio:decimal_value = decimal '0.12'. -
char– lunghezza fissa dei dati dei caratteri specificata tra 1 e 255, ad esempiochar(10). Per ulteriori informazioni, consulta la sezione relativa a tipo di dati Hive CHAR. -
varchar– lunghezza variabile dei dati dei caratteri specificata tra 1 e 65535, ad esempiovarchar(10). Per ulteriori informazioni, consulta la sezione relativa a tipo di dati Hive VARCHAR. -
string: una stringa letterale racchiusa tra virgolette singole o doppie.Nota
I tipi di dati non stringa non possono essere diffusi in
stringin Athena, ma possono essere diffusi invarchar. -
binary: (per i dati in Parquet) -
date– Un dato in formato ISO, ad esempio. Ad esempio,YYYY-MM-DDdate '2008-09-15'. Un'eccezione è costituita da OpenCSVSerDe, che utilizza il numero di giorni trascorsi dal 1° gennaio 1970. Per ulteriori informazioni, consulta OpenCSVSerDe per elaborare file CSV. -
timestamp: data e ora istantanea in un formato compatibile conjava.sql.Timestampfino a una risoluzione massima in millisecondi, come . Ad esempio,yyyy-MM-ddHH:mm:ss[.f...]timestamp '2008-09-15 03:04:05.324'. Un'eccezione è OpenCSvSerde, che utilizza i datiTIMESTAMPnel formato numerico UNIX (ad esempio,1579059880000). Per ulteriori informazioni, consulta OpenCSVSerDe per elaborare file CSV. -
array< data_type > -
map< primitive_type, data_type > -
struct< col_name : data_type [COMMENT col_comment] [, ...] >
-
- [COMMENT table_comment]
-
Crea la proprietà della tabella
commente la popola con il parametrotable_commentspecificato. - [PARTITIONED BY (col_name data_type [ COMMENT col_comment ], ... ) ]
-
Crea una tabella partizionata con una o più colonne di partizione in cui sono specificati
col_name,data_typeecol_comment. Una tabella può avere una o più partizioni, che consistono in una combinazione distinta di nome e valore per la colonna. Viene creata una directory di dati separata per ciascuna combinazione specificata; in alcune circostanze ciò può migliorare le prestazioni delle query. Le colonne partizionate non esistono all'interno dei dati della tabella stessa. Se percol_nameusi un valore uguale a una colonna della tabella, viene restituito un errore. Per ulteriori informazioni, consulta la pagina relativa al partizionamento di dati.Nota
Dopo aver creato una tabella con partizioni, esegui una successiva query che comprenda la clausola MSCK REPAIR TABLE per aggiornare i metadati della partizione, ad esempio
MSCK REPAIR TABLE cloudfront_logs;. Per le partizioni che non sono compatibili con Hive, utilizzare ALTER TABLE ADD PARTITION per caricare le partizioni in modo da poter eseguire una query sui dati.
- [CLUSTERED BY (col_name, col_name, ...) INTO num_buckets BUCKETS]
-
Divide, con o senza partizionamento, i dati nelle colonne
col_namespecificate in sottoinsiemi di dati chiamati bucket. Il parametronum_bucketsspecifica il numero di bucket da creare. Il bucketing può migliorare le prestazioni di alcune query su set di dati di grandi dimensioni.
- [ROW FORMAT row_format]
-
Specifica il formato di riga della tabella e i relativi dati di origine sottostanti, se applicabile. In
row_format, è possibile specificare uno o più delimitatori con la clausolaDELIMITEDo, in alternativa, utilizzare la clausolaSERDEcome descritto di seguito. SeROW FORMATviene omesso oROW FORMAT DELIMITEDè specificato, viene utilizzato un SerDe nativo.-
[DELIMITED FIELDS TERMINATED BY char [ESCAPED BY char]]
-
[DELIMITED COLLECTION ITEMS TERMINATED BY char]
-
[MAP KEYS TERMINATED BY char]
-
[LINES TERMINATED BY char]
-
[NULL DEFINED AS char]
Disponibile solo con Hive 0.13 e quando il formato del file STORED AS è
TEXTFILE.
--O--
-
SERDE 'serde_name' [WITH SERDEPROPERTIES ("property_name" = "property_value", "property_name" = "property_value" [, ...] )]
Il parametro
serde_nameindica il SerDe da utilizzare. La clausolaWITH SERDEPROPERTIESpermette di indicare una o più proprietà personalizzate consentite dal SerDe.
-
- [STORED AS file_format]
-
Specifica il formato di file per i dati della tabella. Se omesso, il valore predefinito è
TEXTFILE. Le opzioni perfile_formatsono:-
SEQUENCEFILE
-
TEXTFILE
-
RCFILE
-
ORC
-
PARQUET
-
AVRO
-
ION
-
INPUTFORMAT input_format_classname OUTPUTFORMAT output_format_classname
-
- [POSIZIONE 's3://amzn-s3-demo-bucket/[folder]/']
-
Specifica la posizione dei dati sottostanti in Amazon S3 da cui viene creata la tabella. Il percorso della posizione deve essere un nome bucket o un nome bucket e una o più cartelle. Se si utilizzano le partizioni, specificare la radice dei dati partizionati. Per ulteriori informazioni sulla posizione della tabella, consulta Specificare la posizione di una tabella in Amazon S3. Per informazioni sul formato dei dati e le autorizzazioni, consulta la sezione Considerazioni su Amazon S3.
Utilizza una barra finale per la cartella o il bucket. Non utilizzare nomi di file o caratteri glob.
Utilizza:
s3://amzn-s3-demo-bucket/s3://amzn-s3-demo-bucket/folder/s3://amzn-s3-demo-bucket/folder/anotherfolder/Non utilizzare:
s3://amzn-s3-demo-buckets3://amzn-s3-demo-bucket/*s3://amzn-s3-demo-bucket/mydatafile.dat - [TBLPROPERTIES ( ['has_encrypted_data'='true | false',] ['classification'='classification_value',] property_name=property_value [, ...] ) ]
-
Specifica coppie personalizzate di metadati chiave-valore per la definizione della tabella, oltre a proprietà predefinite per la tabella, ad esempio
"comment".has_encrypted_data: Athena ha una proprietà integrata,
has_encrypted_data. Impostata sutrueindica che il set di dati sottostanti specificato daLOCATIONè crittografati. Se omesso e se le impostazioni del gruppo di lavoro non sostituiscono le impostazioni lato client, viene utilizzatofalse. Se omesso o impostato sufalsecon dati sottostanti crittografati, la query restituisce un errore. Per ulteriori informazioni, consulta Crittografia dei dati a riposo.classificazione: le tabelle create per Athena nella console CloudTrail aggiungono
cloudtrailcome valore per la proprietàclassification. Per eseguire processi ETL, AWS Glue richiede che sia creata una tabella con la proprietàclassificationper indicare il tipo di dati per AWS Glue comecsv,parquet,orc,avroojson. Ad esempio,'classification'='csv'. Se questa proprietà non viene specificata, i processi ETL non saranno completati con successo. È possibile specificarla in un secondo momento tramite la console AWS Glue, l'API o la CLI. Per ulteriori informazioni, consulta la sezione Creare tabelle per processi ETL e la sezione Creazione di processi in AWS Glue nella AWS Glue Guida per gli sviluppatori.compression_level: la proprietà
compression_levelspecifica il livello di compressione da utilizzare. Questa proprietà si applica solo alla compressione ZSTD. I valori possibili sono compresi tra 1 e 22. Il valore predefinito è 3. Per ulteriori informazioni, consulta Usa i livelli di compressione ZSTD.Per ulteriori informazioni su altre proprietà della tabella, consulta ALTER TABLE SET TBLPROPERTIES.
Esempi
L'CREATE TABLEistruzione di esempio seguente crea una tabella basata su dati planetari separati da tabulazioni archiviati in Amazon S3.
CREATE EXTERNAL TABLE planet_data ( planet_name string, order_from_sun int, au_to_sun float, mass float, gravity_earth float, orbit_years float, day_length float ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE LOCATION 's3://amzn-s3-demo-bucket/tsv/'
Notare i seguenti punti:
-
La
ROW FORMAT DELIMITEDclausola indica che i dati sono delimitati da un carattere specifico. -
La
FIELDS TERMINATED BY '\t'clausola specifica che i campi nei dati TSV sono separati dal carattere di tabulazione ('\ t'). -
La
STORED AS TEXTFILEclausola indica che i dati vengono archiviati come file di testo semplice in Amazon S3.
Per interrogare i dati, puoi usare una semplice SELECT dichiarazione come la seguente:
SELECT * FROM planet_data
Per utilizzare l'esempio per creare la tua tabella TSV in Athena, sostituisci i nomi di tabelle e colonne con i nomi e i tipi di dati della tua tabella e delle tue colonne e aggiorna LOCATION la clausola in modo che punti al percorso Amazon S3 in cui sono archiviati i tuoi file TSV.
Per ulteriori informazioni sulla creazione delle tabelle, consulta Creazione di tabelle in Athena.