Considerazioni e limitazioni - Amazon Athena

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Considerazioni e limitazioni

Quando usi Athena per leggere le tabelle Apache Hudi, considera i seguenti punti.

  • Interrogazioni incrementali: Athena non supporta le interrogazioni incrementali.

  • CTAS — Athena non supporta dati CTAS INSERT INTO o su Hudi. Se desideri il supporto Athena per la scrittura di dataset Hudi, invia un feedback ad .

    Per ulteriori informazioni sulla scrittura di dati Hudi, vedere le seguenti risorse:

  • TABELLA DI RIPARAZIONE MSCK — L'utilizzo di MSCK REPAIR TABLE sulle tabelle Hudi in Athena non è supportato. Se devi caricare una tabella Hudi non creata in, usa. AWS GlueALTER TABLE ADD PARTITION

  • Ignorare gli oggetti Amazon Glacier non è supportato: se gli oggetti nella tabella Apache Hudi si trovano in una classe di storage Amazon Glacier, l'impostazione della proprietà della tabella su non ha alcun effetto. read_restored_glacier_objects false

    Ad esempio, supponiamo di emettere il seguente comando:

    ALTER TABLE table_name SET TBLPROPERTIES ('read_restored_glacier_objects' = 'false')

    Per le tabelle Iceberg e Delta Lake, il comando produce l'errore Chiave delle proprietà della tabella non supportata: read_restored_glacier_objects. Per le tabelle Hudi, il ALTER TABLE comando non produce errori, ma gli oggetti Amazon Glacier non vengono ancora ignorati. L'esecuzione delle query SELECT dopo il comando ALTER TABLE continuerà a restituire tutti gli oggetti.

  • Interrogazioni con data e ora: attualmente, le query che tentano di leggere le colonne con timestamp nelle tabelle Hudi in tempo reale falliscono o producono risultati vuoti. Questa limitazione si applica solo alle query che leggono una colonna con timestamp. Le interrogazioni che includono solo colonne diverse da timestamp della stessa tabella hanno esito positivo.

    Le interrogazioni non riuscite restituiscono un messaggio simile al seguente:

    GENERIC_INTERNAL_ERROR: classe org.apache.hadoop.io. ArrayWritablenon può essere trasmesso alla classe org.apache.hadoop.hive.serde2.io. TimestampWritableV2 (org.apache.hadoop.io. ArrayWritable e org.apache.hadoop.hive.serde2.io. TimestampWritableLe V2 si trovano nel modulo senza nome del loader io.trino.server. PluginClassLoader @75c67992)