Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Considerazioni e limitazioni
Quando usi Athena per leggere le tabelle Apache Hudi, considera i seguenti punti.
-
Interrogazioni incrementali: Athena non supporta le interrogazioni incrementali.
-
CTAS — Athena non supporta dati CTAS INSERT INTO o su Hudi. Se desideri il supporto Athena per la scrittura di dataset Hudi, invia un feedback ad
<athena-feedback@amazon.com>.Per ulteriori informazioni sulla scrittura di dati Hudi, vedere le seguenti risorse:
-
Utilizzo di un set di dati Hudi nella Guida al rilascio di Amazon EMR.
-
Scrittura di dati
nella documentazione di Apache Hudi.
-
-
TABELLA DI RIPARAZIONE MSCK — L'utilizzo di MSCK REPAIR TABLE sulle tabelle Hudi in Athena non è supportato. Se devi caricare una tabella Hudi non creata in, usa. AWS GlueALTER TABLE ADD PARTITION
-
Ignorare gli oggetti Amazon Glacier non è supportato: se gli oggetti nella tabella Apache Hudi si trovano in una classe di storage Amazon Glacier, l'impostazione della proprietà della tabella su non ha alcun effetto.
read_restored_glacier_objectsfalseAd esempio, supponiamo di emettere il seguente comando:
ALTER TABLEtable_nameSET TBLPROPERTIES ('read_restored_glacier_objects' = 'false')Per le tabelle Iceberg e Delta Lake, il comando produce l'errore
Chiave delle proprietà della tabella non supportata: read_restored_glacier_objects. Per le tabelle Hudi, ilALTER TABLEcomando non produce errori, ma gli oggetti Amazon Glacier non vengono ancora ignorati. L'esecuzione delle querySELECTdopo il comandoALTER TABLEcontinuerà a restituire tutti gli oggetti. -
Interrogazioni con data e ora: attualmente, le query che tentano di leggere le colonne con timestamp nelle tabelle Hudi in tempo reale falliscono o producono risultati vuoti. Questa limitazione si applica solo alle query che leggono una colonna con timestamp. Le interrogazioni che includono solo colonne diverse da timestamp della stessa tabella hanno esito positivo.
Le interrogazioni non riuscite restituiscono un messaggio simile al seguente:
GENERIC_INTERNAL_ERROR: classe org.apache.hadoop.io. ArrayWritablenon può essere trasmesso alla classe org.apache.hadoop.hive.serde2.io. TimestampWritableV2 (org.apache.hadoop.io. ArrayWritable e org.apache.hadoop.hive.serde2.io. TimestampWritableLe V2 si trovano nel modulo senza nome del loader io.trino.server. PluginClassLoader @75c67992)