Daten aus Amazon S3 laden - Amazon Redshift

Amazon Redshift wird UDFs ab dem 1. November 2025 die Erstellung von neuem Python nicht mehr unterstützen. Wenn Sie Python verwenden möchten UDFs, erstellen Sie das UDFs vor diesem Datum liegende. Bestehendes Python UDFs wird weiterhin wie gewohnt funktionieren. Weitere Informationen finden Sie im Blogbeitrag.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Daten aus Amazon S3 laden

Sie können Amazon-S3-Daten in eine vorhandene oder neue Tabelle laden.

Daten in eine vorhandene Tabelle laden

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus dem Amazon-Simple-Storage-Service im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten.

  2. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

    Wählen Sie LoadLoad data (Daten laden) aus.

  3. Wählen Sie für Datenquelle die Option Aus S3-Bucket laden aus.

  4. Wählen Sie in S3 Browse S3 URIs, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält.

  5. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den S3-Dateispeicherort für den AWS-Region Speicherort der Daten.

  6. Wählen Sie Diese Datei ist eine Manifestdatei, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

  7. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  8. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

  9. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  10. Wählen Sie Weiter aus.

  11. Wählen Sie Bestehende Tabelle laden aus.

  12. Bestätigen oder wählen Sie den Standort der Zieltabelle (Target table), einschließlich Cluster oder Arbeitsgruppe, Datenbank, Schema und Name der Tabelle, in die die Daten geladen werden.

  13. Wählen Sie eine IAM role (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

  14. (Optional) Wählen Sie Spaltennamen aus, um sie in das Feld Column mapping (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

  15. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das Result (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

So laden Sie Daten in eine neue Tabelle

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter COPY aus dem Amazon-Simple-Storage-Service im Datenbankentwicklerhandbuch zu Amazon Redshift.

  1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

    Wählen Sie LoadLoad data (Daten laden) aus.

  2. Wählen Sie für Datenquelle die Option Aus S3-Bucket laden aus.

  3. Wählen Sie in S3 Browse S3 URIs, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält.

  4. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den S3-Dateispeicherort für den AWS-Region Speicherort der Daten.

  5. Wählen Sie Diese Datei ist eine Manifestdatei, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

  6. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Data is encrypted (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

    Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das Trennzeichen auswählen und angeben, ob Sie die Kopfzeilen ignorieren möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  7. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

  8. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  9. Wählen Sie Weiter aus.

  10. Wählen Sie Neue Tabelle laden aus.

    Die Tabellenspalten werden aus den Eingabedaten abgeleitet. Sie können die Definition des Tabellenschemas ändern, indem Sie Spalten und Tabellendetails hinzufügen. Um zum abgeleiteten Tabellenschema von Query Editor v2 zurückzukehren, wählen Sie Auf Standardwerte zurücksetzen aus.

  11. Bestätigen oder wählen Sie den Standort der Zieltabelle, einschließlich Cluster oder Arbeitsgruppe, Datenbank und Schema, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende Tabelle ein.

  12. Wählen Sie eine IAM role (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

  13. Wählen Sie Tabelle erstellen aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

    Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter DROP TABLE im Datenbankentwicklerhandbuch zu Amazon Redshift.

  14. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das Result (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL_LOAD_ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter STL_LOAD_ERRORS im Datenbankentwicklerhandbuch zu Amazon Redshift.