Komprimieren Ihrer Datendateien - Amazon Redshift

Amazon Redshift unterstützt ab dem 1. November 2025 nicht mehr die Erstellung neuer Python-UDFs. Wenn Sie Python-UDFs verwenden möchten, erstellen Sie die UDFs vor diesem Datum. Bestehende Python-UDFs funktionieren weiterhin wie gewohnt. Weitere Informationen finden Sie im Blog-Posting.

Komprimieren Ihrer Datendateien

Wir empfehlen für das Komprimieren großer Ladedateien die Verwendung von gzip, lzop, bzip2 oder Zstandard, um sie zu komprimieren und die Daten in mehrere, kleinere Dateien aufzuteilen.

Geben Sie die Option GZIP, LZOP, BZIP2 oder ZSTD mit dem COPY-Befehl an. Dieses Beispiel lädt die TIME-Tabelle aus einer pipe-begrenzten lzop-Datei.

copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';

Es gibt Fälle, in denen Sie unkomprimierte Datendateien nicht aufteilen müssen. Weitere Informationen zum Aufteilen Ihrer Daten und Beispiele zur Verwendung von COPY zum Laden von Daten finden Sie unter So laden Sie Daten aus Amazon S3.