Amazon Redshift unterstützt ab dem 1. November 2025 nicht mehr die Erstellung neuer Python-UDFs. Wenn Sie Python-UDFs verwenden möchten, erstellen Sie die UDFs vor diesem Datum. Bestehende Python-UDFs funktionieren weiterhin wie gewohnt. Weitere Informationen finden Sie im Blog-Posting
SYS_LOAD_HISTORY
Verwenden Sie SYS_LOAD_HISTORY, um Details zu COPY-Befehlen anzuzeigen. Jede Zeile stellt einen COPY-Befehl mit akkumulierten Statistiken für einige der Felder dar. Sie enthält sowohl ausgeführte als auch abgeschlossene COPY-Befehle.
SYS_LOAD_HISTORY ist für alle Benutzer sichtbar. Superuser können alle Zeilen sehen; reguläre Benutzer können nur ihre eigenen Daten sehen. Weitere Informationen finden Sie unter Sichtbarkeit der Daten in Systemtabellen und Ansichten.
Tabellenspalten
| Spaltenname | Datentyp | Beschreibung |
|---|---|---|
| user_id | integer | Die ID des Benutzers, der die Kopie gesendet hat. |
| query_id | bigint | Die Abfrage-ID der Kopie. |
| transaction_id | bigint | Die Transaktions-ID. |
| session_id | integer | Die ID des Prozesses, der die Kopie ausführt. |
| database_name | text | Der Name der Datenbank, mit der der Benutzer verbunden war, als der Vorgang ausgegeben wurde. |
| status | text | Der Status der Kopie. Gültige Werte sind running, completed, aborted. |
| table_name | text | Der Name der Tabelle, die Informationen kopiert hat. |
| start_time | timestamp | Der Zeitpunkt, zu dem die Kopie begann. |
| end_time | timestamp | Der Zeitpunkt, an dem die Kopie abgeschlossen wurde. |
| duration | bigint | Die Dauer (in Mikrosekunden) des COPY-Befehls. |
| data_source | text | Der Amazon-S3-Speicherort der zu kopierenden Dateien. |
| file_format | text | Das Format der Quelldatei. Zu den Formaten gehören csv, txt, json, avro, orc oder parquet. |
| loaded_rows | bigint | Die Anzahl der in eine Tabelle kopierten Zeilen. |
| loaded_bytes | bigint | Die Anzahl der in eine Tabelle kopierten Bytes. |
| source_file_count | integer | Die Anzahl der Dateien in Quelldateien. |
| source_file_bytes | bigint | Die Anzahl der Bytes in Quelldateien. |
| file_count_scanned | Ganzzahl | Die Anzahl der gescannten Dateien von Amazon S3. |
| file_bytes_scanned | bigint | Die Anzahl der von der Datei in Amazon S3 gescannten Bytes. |
| error_count | bigint | Die Anzahl der Fehler. |
| copy_job_id | bigint | Die Kennung des Kopierauftrags. 0 gibt an, dass keine Auftragskennung vorhanden ist. |
Beispielabfragen
Die folgende Abfrage zeigt die geladenen Zeilen, Bytes, Tabellen und Datenquellen bestimmter Kopierbefehle.
SELECT query_id, table_name, data_source, loaded_rows, loaded_bytes FROM sys_load_history WHERE query_id IN (6389,490791,441663,74374,72297) ORDER BY query_id, data_source DESC;
Beispielausgabe.
query_id | table_name | data_source | loaded_rows | loaded_bytes ----------+------------------+-----------------------------------------------------------------------+-------------+--------------- 6389 | store_returns | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/store_returns/ | 287999764 | 1196240296158 72297 | web_site | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/web_site/ | 54 | 43808 74374 | ship_mode | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/ship_mode/ | 20 | 1320 441663 | income_band | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/income_band/ | 20 | 2152 490791 | customer_address | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/customer_address/ | 6000000 | 722924305
Die folgende Abfrage zeigt die geladenen Zeilen, Bytes, Tabellen und Datenquellen von Kopierbefehlen.
SELECT query_id, table_name, data_source, loaded_rows, loaded_bytes FROM sys_load_history ORDER BY query_id DESC LIMIT 10;
Beispielausgabe.
query_id | table_name | data_source | loaded_rows | loaded_bytes ----------+------------------------+-----------------------------------------------------------------------------+-------------+----------------- 491058 | web_site | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/web_site/ | 54 | 43808 490947 | web_sales | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/web_sales/ | 720000376 | 22971988122819 490923 | web_returns | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/web_returns/ | 71997522 | 96597496325 490918 | web_page | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/web_page/ | 3000 | 1320 490907 | warehouse | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/warehouse/ | 20 | 1320 490902 | time_dim | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/time_dim/ | 86400 | 1320 490876 | store_sales | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/store_sales/ | 2879987999 | 151666241887933 490870 | store_returns | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/store_returns/ | 287999764 | 1196405607941 490865 | store | s3://load-test/data-sources/tpcds/2.8.0/textfile/1T/store/ | 1002 | 365507
Die folgende Abfrage zeigt die täglich geladenen Zeilen und Byte des copy-Befehls.
SELECT date_trunc('day',start_time) AS exec_day, SUM(loaded_rows) AS loaded_rows, SUM(loaded_bytes) AS loaded_bytes FROM sys_load_history GROUP BY exec_day ORDER BY exec_day DESC;
Beispielausgabe.
exec_day | loaded_rows | loaded_bytes ---------------------+-------------+------------------ 2022-01-20 00:00:00 | 6347386005 | 258329473070606 2022-01-19 00:00:00 | 19042158015 | 775198502204572 2022-01-18 00:00:00 | 38084316030 | 1550294469446883 2022-01-17 00:00:00 | 25389544020 | 1033271084791724 2022-01-16 00:00:00 | 19042158015 | 775222736252792 2022-01-15 00:00:00 | 19834245387 | 798122849155598 2022-01-14 00:00:00 | 75376544688 | 3077040926571384