Amazon Redshift non supporterà più la creazione di nuovi Python UDFs a partire dalla Patch 198. Python esistente UDFs continuerà a funzionare fino al 30 giugno 2026. Per ulteriori informazioni, consulta il post del blog
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
STL_HASH
Analizza le fasi di esecuzione di hash per le query.
STL_HASH è visibile a tutti gli utenti. Gli utenti con privilegi avanzati visualizzano tutte le righe; gli utenti regolari visualizzano solo i propri dati. Per ulteriori informazioni, consulta Visibilità dei dati nelle tabelle e nelle viste di sistema.
Nota
STL_HASH contiene solo le query eseguite sui cluster con provisioning principali. Non contiene le query eseguite sui cluster di dimensionamento simultaneo o sui namespace serverless. Per accedere ai piani di spiegazione per le query eseguite sui cluster principali, sui cluster di dimensionamento simultaneo e sui namespace serverless, consigliamo di utilizzare la vista di monitoraggio SYS SYS_QUERY_DETAIL. I dati nella vista di monitoraggio SYS sono formattati in modo da essere più facili da usare e comprendere.
Colonne di tabella
| Nome della colonna | Tipo di dati | Description |
|---|---|---|
| userid | intero | ID dell'utente che ha generato la voce. |
| query | intero | ID query. La colonna di query può essere utilizzata per unire altre tabelle e visualizzazioni del sistema. |
| sezione | intero | Numero che identifica la sezione in cui è stata eseguita la query. |
| segment | intero | Numero identificativo del segmento di query. |
| step | intero | La fase di query eseguita. |
| starttime | timestamp | Ora in UTC in cui è stata avviata la query. Il tempo totale include l'inserimento in coda e l'esecuzione, con precisione a 6 cifre per le frazioni di secondo. Ad esempio: 2009-06-12 11:29:19.131358. |
| endtime | timestamp | L'orario in UTC in cui è terminata la query. Il tempo totale include l'inserimento in coda e l'esecuzione, con precisione a 6 cifre per le frazioni di secondo. Ad esempio: 2009-06-12 11:29:19.131358. |
| tasknum | intero | Il numero del processo di attività di query assegnato per eseguire la fase. |
| righe | bigint | Numero totale di righe elaborate. |
| byte | bigint | Dimensione, in byte, di tutte le righe di output della fase. |
| slots | intero | Numero totale di bucket di hash. |
| occupied | intero | Numero totale di slot che contengono record. |
| maxlength | intero | Dimensioni dello slot più grande. |
| tbl | intero | ID tabella. |
| is_diskbased | character(1) | Se true (t), la query è stata eseguita come un'operazione basata su disco. Se false (f), la query è stata eseguita in memoria. |
| workmem | bigint | Numero totale di byte della memoria di lavoro assegnati alla fase. |
| num_parts | intero | Numero totale di partizioni in cui è stata divisa una tabella di hash durante una fase di hash. |
| est_rows | bigint | Numero di righe previsto da sottoporre a hash. |
| num_blocks_permitted | intero | Queste informazioni sono solo per uso interno. |
| resizes | intero | Queste informazioni sono solo per uso interno. |
| checksum | bigint | Queste informazioni sono solo per uso interno. |
| runtime_filter_size | intero | Dimensioni del filtro di runtime in byte. |
| max_runtime_filter_size | intero | Dimensioni massime del filtro di runtime in byte. |
Query di esempio
L'esempio seguente restituisce informazioni sul numero di partizioni utilizzate in un hash per la query 720 e indica che nessuna delle fasi è stata eseguita sul disco.
select slice, rows, bytes, occupied, workmem, num_parts, est_rows, num_blocks_permitted, is_diskbased from stl_hash where query=720 and segment=5 order by slice;
slice | rows | bytes | occupied | workmem | num_parts | est_rows | num_blocks_permitted | is_diskbased -------+------+--------+----------+----------+-----------+----------+----------------------+-------------- 0 | 145 | 585800 | 1 | 88866816 | 16 | 1 | 52 f 1 | 0 | 0 | 0 | 0 | 16 | 1 | 52 f (2 rows)