

 Amazon Redshift unterstützt UDFs ab Patch 198 nicht mehr die Erstellung von neuem Python. Das bestehende Python UDFs wird bis zum 30. Juni 2026 weiterhin funktionieren. Weitere Informationen finden Sie im [Blog-Posting](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Laden von Daten in eine Datenbank
<a name="query-editor-v2-loading"></a>

Mit dem Abfrage-Editor v2 können Sie Daten in eine Datenbank in einem Amazon-Redshift-Cluster oder einer Amazon-Redshift-Arbeitsgruppe laden. In diesem Abschnitt wird beschrieben, wie Beispieldaten, Daten aus S3 und Daten aus einer lokalen Dateieinrichtung und einem Workflow geladen werden.

## Beispieldaten
<a name="query-editor-v2-loading-sample-data"></a>

Der Abfrage-Editor v2 umfasst Beispieldaten und -Notebooks, die in eine Beispieldatenbank und ein entsprechendes Schema geladen werden können. 

Um Beispieldaten zu laden, wählen Sie das ![\[External\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/external.png)-Symbol aus, das den zu ladenden Beispieldaten zugeordnet ist. Query Editor v2 lädt dann die Daten in ein Schema in der Datenbank `sample_data_dev` und erstellt einen Ordner mit gespeicherten Notebooks. 

Die folgenden Beispieldatensätze sind verfügbar.

**Tickit**  
In den meisten Beispielen der Amazon-Redshift-Dokumentation werden Beispieldaten namens `tickit` verwendet. Diese Daten umfassen sieben Tabellen, zwei Faktentabellen und fünf Dimensionen. Wenn Sie diese Daten laden, wird das Schema `tickit` mit Beispieldaten aktualisiert. Weitere Informationen über `tickit`-Daten finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

**tpch**  
Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema `tpch` mit Beispieldaten aktualisiert. Weitere Informationen zu `tpch`-Daten finden Sie unter [TPC-H](http://www.tpc.org/tpch/). 

**tpcds**  
Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema `tpcds` mit Beispieldaten aktualisiert. Weitere Informationen zu `tpcds`-Daten finden Sie unter [TPC-DS](http://www.tpc.org/tpcds/). 

# Daten aus Amazon S3 laden
<a name="query-editor-v2-loading-data"></a>

Sie können Amazon-S3-Daten in eine vorhandene oder neue Tabelle laden.

**Daten in eine vorhandene Tabelle laden**

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus dem Amazon-Simple-Storage-Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten. 

1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

   Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Datenquelle** die Option **Aus S3-Bucket laden** aus.

1. Wählen Sie in **S3** **Browse S3 URIs**, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält. 

1. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den **S3-Dateispeicherort für den AWS-Region Speicherort** der Daten.

1. Wählen Sie **Diese Datei ist eine Manifestdatei**, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Bestehende Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank**, **Schema** und Name der **Tabelle**, in die die Daten geladen werden.

1. Wählen Sie eine **IAM role** (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

1. (Optional) Wählen Sie Spaltennamen aus, um sie in das Feld **Column mapping** (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das **Result** (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

**So laden Sie Daten in eine neue Tabelle**

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus dem Amazon-Simple-Storage-Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

   Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Datenquelle** die Option **Aus S3-Bucket laden** aus.

1. Wählen Sie in **S3** **Browse S3 URIs**, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält. 

1. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den **S3-Dateispeicherort für den AWS-Region Speicherort** der Daten.

1. Wählen Sie **Diese Datei ist eine Manifestdatei**, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Neue Tabelle laden** aus.

   Die Tabellenspalten werden aus den Eingabedaten abgeleitet. Sie können die Definition des Tabellenschemas ändern, indem Sie Spalten und Tabellendetails hinzufügen. Um zum abgeleiteten Tabellenschema von Query Editor v2 zurückzukehren, wählen Sie **Auf Standardwerte zurücksetzen** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank** und **Schema**, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende **Tabelle** ein.

1. Wählen Sie eine **IAM role** (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

1. Wählen Sie **Tabelle erstellen** aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

   Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das **Result** (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

# Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow
<a name="query-editor-v2-loading-data-local"></a>

Sie können Daten aus einer lokalen Datei in eine vorhandene oder neue Tabelle laden.

## Einrichtung durch den Administrator für das Laden von Daten aus einer lokalen Datei
<a name="query-editor-v2-loading-data-local-setup"></a>

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Account settings** (Kontoeinstellungen) angeben. Die Kontobenutzer müssen mit den richtigen Berechtigungen konfiguriert werden.
+ Erforderliche IAM-Berechtigungen: Die Benutzer, die die Funktion zum Laden von Daten aus einer lokalen Datei verwenden sollen, müssen über die Berechtigungen `s3:ListBucket`, `s3:GetBucketLocation`, `s3:putObject`, `s3:getObject` und `s3:deleteObject` verfügen. Die *optional-prefix* kann angegeben werden, um die Verwendung dieses Buckets im Zusammenhang mit dem Abfrage-Editor v2 auf Objekte mit diesem Präfix zu beschränken. Diese Option könnten Sie verwenden, wenn Sie denselben Amazon-S3-Bucket auch für andere Zwecke als den Abfrage-Editor v2 verwenden. Weitere Informationen zu Buckets und Präfixen finden Sie unter [Verwalten des Benutzerzugriffs auf bestimmte Ordner](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies.html#example-bucket-policies-folders) im *Benutzerhandbuch zu Amazon Simple Storage Service*. Um sicherzustellen, dass kein benutzerübergreifender Datenzugriff zulässig ist, empfehlen wir dem Administrator für Query Editor v2, eine Amazon-S3-Bucket-Richtlinie zu verwenden, um den Objektzugriff auf der Grundlage von `aws:userid` einzuschränken. Das folgende Beispiel gewährt Amazon S3 S3-Berechtigungen für a *<staging-bucket-name>* mit Lese-/Schreibzugriff nur für Amazon S3 S3-Objekte mit dem Präfix `aws:userid` as.

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Effect": "Allow",
              "Action": [
                  "s3:ListBucket",
                  "s3:GetBucketLocation"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>"
              ]
          },
          {
              "Effect": "Allow",
              "Action": [
                  "s3:PutObject",
                  "s3:GetObject",
                  "s3:DeleteObject"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
          }
      ]
  }
  ```

------
+ Datentrennung: Die Benutzer sollten keinen Zugriff auf die Daten der anderen Benutzer haben (auch nicht kurzzeitig). Beim Laden aus einer lokalen Datei wird der Amazon-S3-Staging-Bucket verwendet, der vom Administrator für den Abfrage-Editor v2 eingerichtet wurde. Konfigurieren Sie die Bucket-Richtlinie für den Staging-Bucket, um für eine Datentrennung zwischen Benutzern zu sorgen. Das folgende Beispiel zeigt eine Bucket-Richtlinie, die Daten zwischen Benutzern von trennt. *<staging-bucket-name>*

------
#### [ JSON ]

****  

  ```
  {
   "Version":"2012-10-17",		 	 	 
      "Statement": [
          {"Sid": "userIdPolicy",
              "Effect": "Deny",
              "Principal": "*",
              "Action": ["s3:PutObject",
                         "s3:GetObject",
                         "s3:DeleteObject"],
              "NotResource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
           }
      ]
  }
  ```

------

## Laden von Daten aus einer lokalen Datei
<a name="query-editor-v2-loading-data-local-procedure"></a>

**So laden Sie Daten aus einer lokalen Datei in eine vorhandene Tabelle**

Ihr Administrator für Query Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Kontoeinstellungen** angeben. Query Editor v2 lädt die lokale Datei automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hoch und verwendet dann den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus Amazon S3](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten. 

1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden. 

1. Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Data source** (Datenquelle) die Option **Load from local file** (Aus lokaler Datei laden) aus.

1. Wählen Sie **Durchsuchen** aus, um nach der Datei zu suchen, die die Daten für **Datei laden** enthält. Standardmäßig werden Dateien mit der Erweiterung `.csv`, `.avro`, `.parquet` und `.orc` angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Bestehende Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank**, **Schema** und Name der **Tabelle**, in die die Daten geladen werden.

1. (Optional) Sie können Spaltennamen auswählen, um sie in das Feld **Column mapping** (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

   Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (**Query history**) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter [Abfrage- und Registerkarten-Verlauf anzeigen](query-editor-v2-history.md).

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

**So laden Sie Daten aus einer lokalen Datei in eine neue Tabelle**

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Account settings** (Kontoeinstellungen) angeben. Die lokale Datei wird automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hochgeladen. Anschließend verwendet der Abfrage-Editor v2 den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus Amazon S3](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden. 

1. Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Data source** (Datenquelle) die Option **Load from local file** (Aus lokaler Datei laden) aus.

1. Wählen Sie **Durchsuchen** aus, um nach der Datei zu suchen, die die Daten für **Datei laden** enthält. Standardmäßig werden Dateien mit der Erweiterung `.csv`, `.avro`, `.parquet` und `.orc` angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Neue Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank** und **Schema**, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende **Tabelle** ein.

1. Wählen Sie **Tabelle erstellen** aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

   Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

   Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (**Query history**) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter [Abfrage- und Registerkarten-Verlauf anzeigen](query-editor-v2-history.md).