

 Amazon Redshift unterstützt UDFs ab Patch 198 nicht mehr die Erstellung von neuem Python. Das bestehende Python UDFs wird bis zum 30. Juni 2026 weiterhin funktionieren. Weitere Informationen finden Sie im [Blog-Posting](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Abfragen einer Datenbank mit Query Editor v2
<a name="query-editor-v2"></a>

Der Abfrage-Editor v2 ist eine separate webbasierte SQL-Clientanwendung, mit der Sie Abfragen in Ihrem Amazon Redshift Data Warehouse erstellen und ausführen können. Der Abfrage-Editor v2 dient hauptsächlich dazu, Abfragen zu bearbeiten und auszuführen, Ergebnisse zu visualisieren und Ihre Arbeit mit Ihrem Team zu teilen. Mit dem Abfrage-Editor v2 können Sie Datenbanken, Schemas, Tabellen und benutzerdefinierte Funktionen () UDFs erstellen. Im Strukturansichtsbereich können Sie für jede Ihrer Datenbanken ihre Schemata anzeigen. Für jedes Schema können Sie die zugehörigen Tabellen, Ansichten und gespeicherten UDFs Prozeduren anzeigen. Der Abfrage-Editor v2 ersetzt den vorherigen Abfrage-Editor. 

**Anmerkung**  
Der Abfrage-Editor v2 ist kommerziell erhältlich AWS-Regionen. Eine Liste, AWS-Regionen wo der Abfrage-Editor v2 verfügbar ist, finden Sie in den Endpunkten, die für den [Redshift-Abfrage-Editor v2](https://docs.aws.amazon.com/general/latest/gr/redshift-service.html) aufgeführt sind. *Allgemeine Amazon Web Services-Referenz* 

Eine Demo zum Abfrage-Editor v2 finden Sie in den folgenden Videos. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IwZNIroJUnc/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IwZNIroJUnc)


[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/4EIV4XTE9iI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/4EIV4XTE9iI)


[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/7y-f1wlyVhI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/7y-f1wlyVhI)


Der Abfrage-Editor v2 verfügt über eine Vielzahl von Funktionen zum Verwalten und Ausführen Ihrer SQL-Anweisungen. Die Themen in den folgenden Abschnitten erleichtern Ihnen den Einstieg in viele dieser Funktionen. Erkunden Sie den Abfrage-Editor v2 selbst, um sich mit seinen Funktionen vertraut zu machen. 

# Konfiguration Ihres AWS-Konto
<a name="query-editor-v2-getting-started"></a>

Sie können diese Aufgaben ausführen, um den Abfrage-Editor v2 für die Abfrage einer Amazon Redshift Redshift-Datenbank zu konfigurieren. Mit den entsprechenden Berechtigungen können Sie auf Daten in einem Amazon Redshift Redshift-Cluster oder einer Arbeitsgruppe zugreifen, deren Eigentümer Sie AWS-Konto sind und die sich in der aktuellen Version befinden. AWS-Region

Wenn ein Administrator den Abfrage-Editor v2 zum ersten Mal für Sie konfiguriert, wählt er den aus AWS-Konto, der zum Verschlüsseln der Query Editor AWS KMS key v2-Ressourcen verwendet wird. Standardmäßig wird ein AWS eigener Schlüssel zum Verschlüsseln von Ressourcen verwendet. Alternativ dazu kann ein Administrator einen kundenseitig verwalteten Schlüssel verwenden, indem er den Amazon-Ressourcennamen (ARN) als Schlüssel auf der Konfigurationsseite auswählt. 

Nach der Konfiguration eines Kontos können die AWS KMS Verschlüsselungseinstellungen nicht geändert werden. Weitere Informationen zum Erstellen und Verwenden eines kundenseitig verwalteten Schlüssels mit dem Abfrage-Editor v2 finden Sie unter [Einen vom AWS KMS Kunden verwalteten Schlüssel zur Verwendung mit dem Abfrage-Editor v2 erstellen](#query-editor-v2-kms-key). Der Administrator kann optional auch einen S3-Bucket und Pfad auswählen, der für einige Funktionen wie z. B. das Laden von Daten aus einer Datei verwendet wird. Weitere Informationen finden Sie unter [Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow](query-editor-v2-loading-data-local.md). 

Der Amazon-Redshift-Abfrage-Editor v2 unterstützt Authentifizierung, Verschlüsselung, Isolation und Compliance, um Data-at-Rest zu wahren und Daten während der Übertragung zu schützen. Weitere Informationen zu Datensicherheit im Abfrage-Editor v2 finden Sie hier: 
+ [Verschlüsselung im Ruhezustand](security-server-side-encryption.md)
+ [Verschlüsselung während der Übertragung](security-encryption-in-transit.md)
+ [Konfigurations- und Schwachstellenanalyse in Amazon Redshift](security-vulnerability-analysis-and-management.md)

AWS CloudTrail erfasst API-Aufrufe und zugehörige Ereignisse, die von Ihnen oder in Ihrem Namen getätigt wurden, AWS-Konto und übermittelt die Protokolldateien an einen von Ihnen angegebenen Amazon S3 S3-Bucket. Sie können feststellen, welche Benutzer und Konten angerufen wurden AWS, von welcher Quell-IP-Adresse aus die Anrufe getätigt wurden und wann die Aufrufe erfolgten. Weitere Informationen zur Ausführung des Abfrage-Editors v2 in AWS CloudTrail finden Sie unter [Protokollierung mit CloudTrail](logging-with-cloudtrail.md). Weitere Informationen zu CloudTrail finden Sie im [AWS CloudTrail Benutzerhandbuch](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html). 

Der Abfrage-Editor v2 verfügt für einige seiner Ressourcen über einstellbare Kontingente. Weitere Informationen finden Sie unter [Kontingente für Amazon-Redshift-Objekte](amazon-redshift-limits.md#amazon-redshift-limits-quota). 

## Mit dem Abfrage-Editor v2 erstellte Ressourcen
<a name="query-editor-v2-resources"></a>

Im Abfrage-Editor v2 können Sie Ressourcen wie gespeicherte Abfragen und Diagramme erstellen. Alle Ressourcen im Abfrage-Editor v2 sind einer IAM-Rolle oder einem Benutzer zugeordnet. Wir empfehlen, Richtlinien an eine IAM-Rolle anzufügen und die Rolle einem Benutzer zuzuweisen.

Im Abfrage-Editor v2 können Sie Tags für gespeicherte Abfragen und Diagramme hinzufügen und entfernen. Sie können diese Tags verwenden, wenn Sie benutzerdefinierte IAM-Richtlinien einrichten oder nach Ressourcen suchen. Sie können Tags auch mithilfe des AWS -Ressourcengruppen Tag-Editors verwalten.

Sie können IAM-Rollen mit IAM-Richtlinien einrichten, um Abfragen mit anderen in Ihrem eigenen Bereich zu teilen. AWS-Konto AWS-Region

## Einen vom AWS KMS Kunden verwalteten Schlüssel zur Verwendung mit dem Abfrage-Editor v2 erstellen
<a name="query-editor-v2-kms-key"></a>

**So erstellen Sie einen kundenverwalteten Schlüssel mit symmetrischer Verschlüsselung**:

Sie können einen vom Kunden verwalteten symmetrischen Verschlüsselungsschlüssel erstellen, um die Ressourcen des Abfrageeditors v2 mithilfe der AWS KMS Konsole oder AWS KMS API-Operationen zu verschlüsseln. *Anweisungen zum Erstellen eines Schlüssels finden Sie unter [Erstellen eines symmetrischen AWS KMS Verschlüsselungsschlüssels im AWS Key Management Service Entwicklerhandbuch](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html#create-symmetric-cmk).*

**Schlüsselrichtlinie**

Schlüsselrichtlinien steuern den Zugriff auf den vom Kunden verwalteten Schlüssel. Jeder vom Kunden verwaltete Schlüssel muss über genau eine Schlüsselrichtlinie verfügen, die aussagt, wer den Schlüssel wie verwenden kann. Wenn Sie Ihren kundenseitig verwalteten Schlüssel erstellen, können Sie eine Schlüsselrichtlinie angeben. Weitere Informationen finden Sie im *AWS Key Management Service Entwicklerhandbuch* unter [Verwaltung des Zugriffs auf AWS KMS Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/control-access-overview.html#managing-access). 

Um Ihren vom Kunden verwalteten Schlüssel mit dem Amazon-Redshift-Abfrage-Editor v2 verwenden zu können, müssen die folgenden API-Operationen per Schlüsselrichtlinie zulässig sein: 
+ `kms:GenerateDataKey` – Erzeugt einen eindeutigen symmetrischen Datenschlüssel zur Verschlüsselung Ihrer Daten.
+ `kms:Decrypt` – Entschlüsselt Daten, die mit dem vom Kunden verwalteten Schlüssel verschlüsselt wurden.
+ `kms:DescribeKey` – Stellt die vom Kunden verwalteten Schlüsseldetails bereit, damit der Service den Schlüssel validieren kann. 

Im Folgenden finden Sie ein Beispiel für eine AWS KMS Richtlinie für AWS-Konto `111122223333`. Im ersten Abschnitt wird schränkt der `kms:ViaService` die Verwendung des Schlüssels auf den Service (Abfrage-Editor v2) ein (in der Richtlinie `sqlworkbench.region.amazonaws.com` genannt). Die AWS-Konto Verwendung des Schlüssels muss erfolgen`111122223333`. Im zweiten Abschnitt AWS-Konto `111122223333` können der Root-Benutzer und die Schlüsseladministratoren von auf den Schlüssel zugreifen.

 Wenn Sie einen erstellen AWS-Konto, beginnen Sie mit einer Anmeldeidentität, dem sogenannten AWS-Konto *Root-Benutzer*, der vollständigen Zugriff auf alle AWS-Services Ressourcen hat. Wir raten ausdrücklich davon ab, den Root-Benutzer für Alltagsaufgaben zu verwenden. Eine Liste der Aufgaben, für die Sie sich als Root-Benutzer anmelden müssen, finden Sie unter [Tasks that require root user credentials](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_root-user.html#root-user-tasks) im *IAM-Benutzerhandbuch*. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "key-consolepolicy",
    "Statement": [
        {
            "Sid": "Allow access to principals authorized to use Amazon Redshift Query Editor V2",
            "Effect": "Allow",
            "Principal": {
                "AWS": "*"
            },
            "Action": [
                "kms:GenerateDataKey",
                "kms:Decrypt",
                "kms:DescribeKey"
            ],
            "Resource": "*",
            "Condition": {
                "StringEquals": {
                    "kms:ViaService": "sqlworkbench.us-east-1.amazonaws.com",
                    "kms:CallerAccount": "111122223333"
                }
            }
        },
        {
            "Sid": "Allow access for key administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": [
                "kms:*"
            ],
            "Resource": "arn:aws:kms:us-east-1:111122223333:key/key_ID"
        }
    ]
}
```

------

In den folgenden Ressourcen finden Sie weitere Informationen zu AWS KMS Schlüsseln:
+ Weitere Informationen zu AWS KMS Richtlinien finden Sie im *AWS Key Management Service Entwicklerhandbuch* [unter Angeben von Berechtigungen in einer Richtlinie](https://docs.aws.amazon.com/kms/latest/developerguide/control-access-overview.html#overview-policy-elements). 
+ Informationen zur Fehlerbehebung bei AWS KMS Richtlinien finden Sie unter [Problembehandlung beim Schlüsselzugriff](https://docs.aws.amazon.com/kms/latest/developerguide/policy-evaluation.html#example-no-iam) im *AWS Key Management Service Entwicklerhandbuch*. 
+ Weitere Informationen über Schlüssel finden Sie unter [AWS -KMS-Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#kms_keys) im *AWS Key Management Service -Entwicklerhandbuch*.

## Zugreifen auf den Abfrage-Editor v2
<a name="query-editor-v2-configure"></a>

Um den Abfrage-Editor v2 aufzurufen, benötigen Sie eine Berechtigung. Ein Administrator kann der Rolle eine der folgenden AWS verwalteten Richtlinien hinzufügen, um Berechtigungen zu erteilen. (Wir empfehlen, Richtlinien an eine IAM-Rolle anzufügen und die Rolle einem Benutzer zuzuweisen.) Diese AWS verwalteten Richtlinien verfügen über verschiedene Optionen, mit denen gesteuert wird, wie das Markieren von Ressourcen die gemeinsame Nutzung von Abfragen ermöglicht. Sie können die IAM-Konsole ([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)) verwenden, um IAM-Richtlinien anzuhängen. 
+ **AmazonRedshiftQueryEditorV2 FullAccess** — Gewährt vollen Zugriff auf die Vorgänge und Ressourcen des Amazon Redshift Query Editor v2. Diese Richtlinie gewährt außerdem Zugriff auf andere erforderliche Dienste.
+ **AmazonRedshiftQueryEditorV2 NoSharing** — Ermöglicht die Arbeit mit dem Amazon Redshift Query Editor v2, ohne Ressourcen gemeinsam zu nutzen. Diese Richtlinie gewährt außerdem Zugriff auf andere erforderliche Dienste. 
+ **AmazonRedshiftQueryEditorV2 ReadSharing** — Ermöglicht die Arbeit mit dem Amazon Redshift Query Editor v2 mit begrenzter gemeinsamer Nutzung von Ressourcen. Der Prinzipal mit der entsprechenden Berechtigung kann die mit seinem Team geteilten Ressourcen lesen, kann sie jedoch nicht ändern. Diese Richtlinie gewährt außerdem Zugriff auf andere erforderliche Dienste. 
+ **AmazonRedshiftQueryEditorV2 ReadWriteSharing** — Ermöglicht die Arbeit mit dem Amazon Redshift Query Editor v2 mit gemeinsamer Nutzung von Ressourcen. Der Prinzipal mit den entsprechenden Berechtigungen kann die mit seinem Team geteilten Ressourcen lesen und bearbeiten. Diese Richtlinie gewährt außerdem Zugriff auf andere erforderliche Dienste. 

Sie können auch Ihre eigene Richtlinie erstellen, basierend auf den zulässigen und verweigerten Berechtigungen in den bereitgestellten verwalteten Richtlinien. Wenn Sie den IAM-Konsolenrichtlinien-Editor verwenden, um Ihre eigene Richtlinie zu erstellen, wählen Sie **SQL Workbench** als Service aus, für den Sie die Richtlinie im visuellen Editor erstellen. Der Abfrage-Editor v2 verwendet den Dienstnamen AWS SQL Workbench im visuellen Editor und im IAM-Richtliniensimulator. 

Damit ein Prinzipal (ein Benutzer mit einer zugewiesenen IAM-Rolle) eine Verbindung mit einem Amazon-Redshift-Cluster herstellen kann, benötigt er die Berechtigungen in einer der verwalteten Richtlinien des Abfrage-Editors v2. Sie benötigen außerdem eine der `redshift:GetClusterCredentialsWithIAM` oder `redshift:GetClusterCredentials` -Berechtigungen für den Cluster. Um diese Berechtigung zu erhalten, kann jemand mit Administratorberechtigung eine Richtlinie an die IAM-Rollen anfügen, mit denen mithilfe temporärer Anmeldeinformationen eine Verbindung zum Cluster hergestellt wird. Sie können die Richtlinie auf bestimmte Cluster eingrenzen oder sie allgemeiner formulieren. Weitere Informationen zur Berechtigung zur Verwendung temporärer Anmeldeinformationen finden Sie unter [Erstellen einer IAM-Rolle oder eines IAM-Benutzers mit der Berechtigung zum Aufrufen von GetClusterCredentialsWith IAM](generating-iam-credentials-steps.md#generating-iam-credentials-role-permissions) oder. GetClusterCredentials 

Damit ein Prinzipal (in der Regel ein Benutzer mit einer zugewiesenen IAM-Rolle) auf der Seite **Kontoeinstellungen** die Funktion **Ergebnissatz exportieren** für andere im Konto aktivieren kann, benötigt er die Berechtigung `sqlworkbench:UpdateAccountExportSettings`, die der Rolle angefügt ist. Diese Berechtigung ist in der `AmazonRedshiftQueryEditorV2FullAccess` AWS verwalteten Richtlinie enthalten.

Wenn dem Abfrage-Editor v2 neue Funktionen hinzugefügt werden, werden die AWS verwalteten Richtlinien nach Bedarf aktualisiert. Wenn Sie basierend auf den zulässigen und verweigerten Berechtigungen in den bereitgestellten verwalteten Richtlinien Ihre eigene Richtlinie erstellen, bearbeiten Sie Ihre Richtlinien, sodass sie den Änderungen an den verwalteten Richtlinien entsprechen. Weitere Informationen zu verwalteten Richtlinien für Amazon Redshift finden Sie unter [AWS verwaltete Richtlinien für Amazon Redshift](redshift-iam-access-control-identity-based.md#redshift-policy-resources.managed-policies).

Um Zugriff zu gewähren, fügen Sie Ihren Benutzern, Gruppen oder Rollen Berechtigungen hinzu:
+ Benutzer und Gruppen in AWS IAM Identity Center:

  Erstellen Sie einen Berechtigungssatz. Befolgen Sie die Anweisungen unter [Erstellen eines Berechtigungssatzes](https://docs.aws.amazon.com//singlesignon/latest/userguide/howtocreatepermissionset.html) im *AWS IAM Identity Center -Benutzerhandbuch*.
+ Benutzer, die in IAM über einen Identitätsanbieter verwaltet werden:

  Erstellen Sie eine Rolle für den Identitätsverbund. Befolgen Sie die Anleitung unter [Eine Rolle für einen externen Identitätsanbieter (Verbund) erstellen](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-idp.html) im *IAM-Benutzerhandbuch*.
+ IAM-Benutzer:
  + Erstellen Sie eine Rolle, die Ihr Benutzer annehmen kann. Befolgen Sie die Anleitung unter [Eine Rolle für einen IAM-Benutzer erstellen](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) im *IAM-Benutzerhandbuch*.
  + (Nicht empfohlen) Weisen Sie einem Benutzer eine Richtlinie direkt zu oder fügen Sie einen Benutzer zu einer Benutzergruppe hinzu. Befolgen Sie die Anweisungen unter [Hinzufügen von Berechtigungen zu einem Benutzer (Konsole)](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_users_change-permissions.html#users_change_permissions-add-console) im *IAM-Benutzerhandbuch*.

**Anmerkung**  
Wenn ein AWS IAM Identity Center Administrator alle Zuordnungen von Berechtigungssätzen für einen bestimmten Berechtigungssatz im gesamten Konto entfernt, ist der Zugriff auf alle Abfrage-Editor-Ressourcen, die ursprünglich mit dem entfernten Berechtigungssatz verknüpft waren, nicht mehr verfügbar. Wenn dieselben Berechtigungen später erneut erstellt werden, wird eine neue interne Kennung erstellt. Da sich die interne Kennung geändert hat, kann auf Query-Editor-Ressourcen, die zuvor einem Benutzer gehört haben, nicht zugegriffen werden. Bevor Administratoren einen Berechtigungssatz löschen, empfehlen wir, dass Benutzer des betreffenden Berechtigungssatzes Query-Editor-Ressourcen wie Notebooks und Abfragen als Backup exportieren.

## Einrichten von Prinzipal-Tags für die Verbindung eines Clusters oder einer Arbeitsgruppe von Query Editor v2 aus
<a name="query-editor-v2-principal-tags-iam"></a>

Wenn Sie mithilfe der Verbundbenutzeroption eine Verbindung zu Ihrem Cluster oder Ihrer Arbeitsgruppe herstellen möchten, richten Sie entweder Ihre IAM-Rolle oder einen Benutzer mit Prinzipal-Tags ein. Sie können auch Ihren Identitätsanbieter (IDP) für die Weitergabe in `RedshiftDbUser` und (optional) `RedshiftDbGroups` einrichten. Weitere Informationen zur Verwendung von IAM zum Verwalten von Tags finden Sie unter [Übergeben von Sitzungs-Tags in AWS -Security-Token-Service](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_session-tags.html) im *IAM-Benutzerhandbuch*. Um den Zugriff einzurichten AWS Identity and Access Management, kann ein Administrator mithilfe der IAM-Konsole ([https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)) Tags hinzufügen. 

**So fügen Sie einer IAM-Rolle Prinzipal-Tags hinzu**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die IAM-Konsole unter. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)

1. Wählen Sie im Navigationsbereich **Roles (Rollen)** aus.

1. Wählen Sie die Rolle aus, die Zugriff auf den Abfrage-Editor v2 unter Verwendung eines Verbundbenutzers benötigt.

1. Wählen Sie die Registerkarte **Tags** aus.

1. Wählen Sie **Manage tags** (Tags verwalten) aus.

1. Klicken Sie auf **Tag hinzufügen** und geben Sie für **Schlüssel** `RedshiftDbUser` und unter **Wert** den Namen des Verbundbenutzers ein.

1. Wählen Sie optional **Tag hinzufügen** aus und geben Sie für **Schlüssel** `RedshiftDbGroups` und unter **Wert** den Gruppennamen ein, der dem Benutzer zugeordnet werden soll.

1. Klicken Sie auf **Save changes** (Änderungen speichern), um die Liste der Tags anzuzeigen, die mit Ihrer ausgewählten IAM-Rolle verknüpft sind. Das Weitergeben von Änderungen kann mehrere Sekunden dauern.

1. Um den Verbundbenutzer zu verwenden, aktualisieren Sie die Seite des Abfrage-Editors v2, nachdem die Änderungen weitergegeben wurden.

**Einrichten Ihres Identitätsanbieters (IDP) zur Weitergabe von Prinzipal-Tags**  
Die Vorgehensweise zum Einrichten von Tags mithilfe eines Identitätsanbieters (IDP) variiert je nach IDP. Anweisungen zum Übergeben von Benutzer- und Gruppeninformationen an SAML-Attribute finden Sie in der IDP-Dokumentation. Bei korrekter Konfiguration erscheinen die folgenden Attribute in Ihrer SAML-Antwort, die von verwendet wird, AWS -Security-Token-Service um die Haupt-Tags für und auszufüllen. `RedshiftDbUser` `RedshiftDbGroups` 

```
<Attribute Name="https://aws.amazon.com/SAML/Attributes/PrincipalTag:RedshiftDbUser">
    <AttributeValue>db-user-name</AttributeValue>
</Attribute>
<Attribute Name="https://aws.amazon.com/SAML/Attributes/PrincipalTag:RedshiftDbGroups">
    <AttributeValue>db-groups</AttributeValue>
</Attribute>
```

 Bei der optionalen Option *db\$1groups* muss es sich um eine durch Doppelpunkte getrennte Liste handeln, z. B. `group1:group2:group3`

Darüber hinaus können Sie das Attribut `TransitiveTagKeys` festlegen, um die Tags während der Rollenverkettung beizubehalten.

```
<Attribute Name="https://aws.amazon.com/SAML/Attributes/TransitiveTagKeys">
  <AttributeValue>RedshiftDbUser</AttributeValue>
  <AttributeValue>RedshiftDbGroups</AttributeValue>
</Attribute>
```

Weitere Informationen zum Einrichten des Abfrage-Editors v2 finden Sie unter [Für die Verwendung des Abfrage-Editors v2 erforderliche Berechtigungen](redshift-iam-access-control-identity-based.md#redshift-policy-resources.required-permissions.query-editor-v2).

Weitere Informationen zum Einrichten von Active Directory Federation Services (AD FS) finden Sie im Blogbeitrag: [Verbundzugriff auf Amazon-Redshift-Abfrage-Editor v2 mit Active Directory Federation Services (AD FS)](https://aws.amazon.com/blogs//big-data/federate-access-to-amazon-redshift-query-editor-v2-with-active-directory-federation-services-ad-fs-part-3/). 

Weitere Informationen zum Einrichten von Okta finden Sie im Blogbeitrag: [Single-Sign-On-Verbundzugriff auf Amazon-Redshift-Abfrage-Editor v2 mit Okta](https://aws.amazon.com/blogs//big-data/federate-single-sign-on-access-to-amazon-redshift-query-editor-v2-with-okta/). 

**Anmerkung**  
Wenn Sie mithilfe der Verbindungsoption **Verbundbenutzer** von Query Editor v2 eine Verbindung zu Ihrem Cluster oder Ihrer Arbeitsgruppe herstellen, kann der Identitätsanbieter (IDP) benutzerdefinierte Prinzipal-Tags für `RedshiftDbUser` und `RedshiftDbGroups` bereitstellen. Unterstützt derzeit nicht AWS IAM Identity Center die direkte Übergabe von benutzerdefinierten Prinzipal-Tags an den Abfrage-Editor v2.

# Öffnen des Abfrage-Editors v2
<a name="query-editor-v2-open"></a>

Mit Amazon Redshift können Sie unter Verwendung von Query Editor v2 in der Amazon-Redshift-Konsole SQL-Abfragen für Ihren Data-Warehouse-Cluster ausführen. Query Editor v2 ist ein webbasiertes Tool, das eine benutzerfreundliche Oberfläche für die Ausführung von Ad-hoc-Abfragen, die Untersuchung von Daten und die Durchführung von Datenanalyseaufgaben bietet. In den folgenden Abschnitten erfahren Sie, wie Sie Query Editor v2 in der Konsole öffnen und seine Funktionen effektiv nutzen können.

**Den Abfrage-Editor v2 öffnen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon Redshift Redshift-Konsole unter [https://console.aws.amazon.com/redshiftv2/](https://console.aws.amazon.com/redshiftv2/).

1. Wählen Sie im Navigator-Menü **Editor** und dann **Query editor v2** (Abfrage-Editor v2) aus. Der Abfrage-Editor v2 wird in einer neuen Registerkarte geöffnet.

Die Abfrage-Editor-Seite enthält ein Navigationsmenü, in dem Sie eine Ansicht wie folgt auswählen können:

**Editor ![\[Horizontal lines representing redacted or censored text.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-align-left.png)**  
Sie verwalten und fragen Ihre Daten ab, die als Tabellen organisiert und in einer Datenbank enthalten sind. Die Datenbank kann gespeicherte Daten oder einen Verweis auf Daten enthalten, die an anderer Stelle, z. B. in Amazon S3, gespeichert sind. Sie stellen eine Verbindung zu einer Datenbank her, die entweder in einem Cluster oder einer Serverless-Arbeitsgruppe enthalten ist.  
In der Ansicht **Editor** haben Sie die folgenden Steuerelemente:   
+ Im Feld **Cluster** oder **Workgroup** (Arbeitsgruppe) wird der Name des Objekts angezeigt, mit dem Sie gerade verbunden sind. Das Feld **Database** (Datenbank) zeigt die Datenbanken innerhalb des Clusters oder der Arbeitsgruppe an. Aktionen in der Ansicht **Database** (Datenbank) wirken sich standardmäßig auf die ausgewählte Datenbank aus. 
+ Eine hierarchische Strukturansicht Ihrer Cluster oder Arbeitsgruppen, Datenbanken und Schemata. Unter den Schemata können Sie mit Ihren Tabellen, Ansichten, Funktionen und gespeicherten Prozeduren arbeiten. Jedes Objekt in der Baumansicht bietet ein Kontextmenü zum Ausführen verknüpfter Aktionen für das Objekt, etwa **Refresh** (Aktualisieren) oder **Drop** (Entfernen). 
+ Die Aktion ![\[The create icon used in the AWS Console.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png) **Create** (Erstellen) zum Erstellen von Datenbanken, Schemata, Tabellen und Funktionen.
+ Die ![\[The upload icon used in the AWS Console.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)-Aktion **Daten laden**, um Daten aus Amazon S3 oder aus einer lokalen Datei in Ihrer Datenbank zu laden.
+ Das Symbol ![\[The floppy disk icon used in the AWS Console.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-floppy-disk.png) **Save** (Speichern) zum Speichern Ihrer Abfrage. 
+ Das Symbol ![\[The shortcut icon used in the AWS Console.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-key-command.png) **Shortcuts** zum Anzeigen der Tastenkombinationen für den Editor. 
+ Ein ![\[The more actions icon used in the AWS Console.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-more.png) **Mehr**-Symbol, um mehr Aktionen im Editor anzuzeigen. Wie beispielsweise: 
  + **Für mein Team freigeben** zum Freigeben einer Abfrage oder eines Notebooks für Ihr Team. Weitere Informationen finden Sie unter [Zusammenarbeiten und Teilen im Team](query-editor-v2-team.md).
  + Das Symbol **Shortcuts** zum Anzeigen der Tastenkombinationen für den Editor.
  + **Tab-Verlauf**, um den Verlauf einer Registerkarte im Editor anzuzeigen.
  + **Aktualisieren der automatischen Vervollständigung**, um die angezeigten Vorschläge beim Verfassen von SQL zu aktualisieren.
+ Den ![\[The editor icon in the AWS Console where can enter and run queries.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png) **Editor**-Bereich, in dem Sie Ihre Abfrage eingeben und ausführen können. 

  Nachdem Sie eine Abfrage ausgeführt haben, erscheint die Registerkarte **Result** mit den Ergebnissen. Hier können Sie **Chart** (Diagramm) aktivieren und sich die Ergebnisse visuell darstellen lassen. Sie können mit der Option **Export** (Exportieren) einen Export Ihrer Ergebnisse durchführen.
+ Ein ![\[The icon in the AWS Console where you can add sections to enter and run SQL or add Markdown.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png) **Notebook**-Bereich, in dem Sie Abschnitte hinzufügen können, um SQL einzugeben und auszuführen oder Markdown hinzuzufügen. 

  Nachdem Sie eine Abfrage ausgeführt haben, erscheint die Registerkarte **Result** mit den Ergebnissen. In diesem Bereich können Sie mit **Export** (Exportieren) einen Export Ihrer Ergebnisse durchführen.

**Abfragen ![\[A folder icon used in the AWS Console used to query databases.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-folder-close.png)**  
Eine Abfrage enthält die SQL-Befehle zum Verwalten und Abfragen Ihrer Daten in einer Datenbank. Wenn Sie den Abfrage-Editor v2 verwenden, um Beispieldaten zu laden, werden auch Beispielabfragen für Sie erstellt und gespeichert.  
 Wenn Sie eine gespeicherte Abfrage auswählen, können Sie diese über das Kontextmenü (Rechtsklickmenü) öffnen, umbenennen und löschen. Sie können Attribute wie den **Abfrage-ARN** einer gespeicherten Abfrage anzeigen, indem Sie **Abfragedetails** auswählen. Sie können auch den Versionsverlauf einsehen, an die Abfrage angehängte Tags bearbeiten und die Abfrage mit Ihrem Team teilen.

**Notebooks ![\[A book icon used in the AWS Console used as SQL notebook.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-manual.png)**  
Ein SQL-Notebook enthält SQL- und Markdown-Zellen. Sie können mit Notebooks mehrere SQL-Befehle in einem einzigen Dokument organisieren, kommentieren und freigeben.  
 Wenn Sie ein gespeichertes Notebook auswählen, können Sie dieses über das Kontextmenü (Rechtsklickmenü) öffnen, umbenennen, duplizieren und löschen. Sie können Attribute wie den **Notebook-ARN** eines gespeicherten Notebooks anzeigen, indem Sie **Notebook-Details** auswählen. Sie können auch den Versionsverlauf einsehen, an das Notebook angehängte Tags bearbeiten, das Notebook exportieren und mit Ihrem Team teilen. Weitere Informationen finden Sie unter [Notizbücher in Amazon RedshiftNotebooks](query-editor-v2-notebooks.md).

**Diagramme ![\[Icon of a chart used in the AWS Console as visual representation of data.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-chart.png)**  
Ein Diagramm ist eine visuelle Darstellung Ihrer Daten. Der Abfrage-Editor v2 bietet Werkzeuge, um verschiedene Diagramme zu erstellen und zu speichern.   
 Wenn Sie ein gespeichertes Diagramm auswählen, können Sie dieses über das Kontextmenü (Rechtsklickmenü) öffnen, umbenennen und löschen. Sie können Attribute wie den **Diagramm-ARN** eines gespeicherten Diagramms anzeigen, indem Sie **Diagrammdetails** auswählen. Sie können auch an das Diagramm angehängte Tags bearbeiten und das Diagramm exportieren. Weitere Informationen finden Sie unter [Visualisieren von Abfrageergebnissen](query-editor-v2-charts.md). 

**Verlauf ![\[Icon of a clock used in the AWS Console for query history.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-clock.png)**  
Der Abfrage-Verlauf ist eine Liste von Abfragen, die Sie mit dem Amazon-Redshift-Abfrage-Editor v2 ausgeführt haben. Diese Abfragen wurden entweder als einzelne Abfragen oder als Teil eines SQL-Notebooks ausgeführt. Weitere Informationen finden Sie unter [Abfrage- und Registerkarten-Verlauf anzeigen](query-editor-v2-history.md). 

**Geplante Abfragen ![\[Icon of a calendar used in the AWS Console for scheduled queries.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-calendar.png)**  
Eine geplante Abfrage ist eine Abfrage, deren Ausführung für bestimmte Zeitpunkte geplant ist.

 Alle Ansichten des Abfrage-Editors v2 haben die folgenden Symbole:
+ Ein Symbol ![\[Icon of a quarter moon used in the AWS Console to switch between light and dark modes.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-moon.png) **Visual mode** (Visualisierungsmodus) zum Umschalten zwischen Hell- und Dunkelmodus.
+ Ein Symbol ![\[Icon of a gear used in the AWS Console to show settings.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-cog.png) **Settings** (Einstellungen), um ein Menü mit den verschiedenen Einstellungsbildschirmen anzuzeigen.
  + Ein Symbol ![\[Icon used in the AWS Console to show editor preferences.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-properties.png) **Editor preferences** (Editor-Einstellungen) zum Bearbeiten Ihrer Einstellungen, wenn Sie den Abfrage-Editor v2 verwenden. Hier können Sie die **Workspace-Einstellungen bearbeiten**, um die Schriftgröße, die Tabulatorgröße und andere Anzeigeneinstellungen zu ändern. Sie können die **automatische Vervollständigung** auch aktivieren (oder deaktivieren), um Vorschläge bei der Eingabe Ihrer SQL-Anweisung anzuzeigen.
  + Ein Symbol ![\[Icon used in the AWS Console to view connections used in the editor tab.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-connection.png) **Connections** (Verbindungen), um die von Ihren Editor-Registerkarten verwendeten Verbindungen anzuzeigen.

    Eine Verbindung wird zum Abrufen von Daten aus einer Datenbank verwendet. Eine Verbindung wird für eine bestimmte Datenbank erstellt. Bei einer isolierten Verbindung sind die Ergebnisse eines SQL-Befehls, der die Datenbank ändert, z. B. das Erstellen einer temporären Tabelle, auf einer anderen Editor-Registerkarte nicht sichtbar. Wenn Sie eine Editor-Registerkarte im Abfrage-Editor v2 öffnen, ist die Standardeinstellung eine isolierte Verbindung. Wenn Sie eine gemeinsam genutzte Verbindung erstellen, d. h. Sie deaktivieren den Schalter **Isolated session** (Isolierte Sitzung), dann sind die Ergebnisse in anderen gemeinsam genutzten Verbindungen mit der gleichen Datenbank untereinander sichtbar. Editor-Registerkarten, die eine gemeinsame Verbindung mit einer Datenbank verwenden, werden jedoch nicht parallel ausgeführt. Abfragen, die dieselbe Verbindung verwenden, müssen warten, bis die Verbindung verfügbar ist. Eine Verbindung mit einer Datenbank kann nicht mit einer anderen Datenbank gemeinsam genutzt werden, sodass SQL-Ergebnisse nicht über verschiedene Datenbankverbindungen hinweg sichtbar sind.

    Die Anzahl der Verbindungen, die im Konto eines Benutzers aktiv sein können, wird von einem Administrator des Abfrage-Editors v2 gesteuert.
  + Ein Symbol ![\[Icon used in the AWS Console used by administrators to change settings of user accounts.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-settings.png) **Account settings** (Kontoeinstellungen), das von einem Administrator verwendet wird, um bestimmte Einstellungen aller Benutzer im Konto zu ändern. Weitere Informationen finden Sie unter [Kontoeinstellungen](#query-editor-v2-settings).

## Überlegungen zur Arbeit mit dem Abfrage-Editor v2
<a name="query-editor-v2-considerations"></a>

Beachten Sie Folgendes, wenn Sie mit dem Abfrage-Editor v2 arbeiten.
+ Die maximale Dauer einer Abfrage beträgt 24 Stunden.
+ Die maximale Abfrageergebnisgröße beträgt 100 MB. Wenn ein Aufruf mehr als 100 MB an Antwortdaten zurückgibt, werden die ersten 100 MB mit einer Warnung zurückgegeben.
+ Sie können Abfragen mit bis zu 300 000 Zeichen ausführen. 
+ Sie können Abfragen mit bis zu 30 000 Zeichen speichern. 
+ Standardmäßig führt der Abfrage-Editor v2 automatisch einen Commit für jeden einzelnen SQL-Befehl aus, der ausgeführt wird. Wenn eine BEGIN-Anweisung bereitgestellt wird, werden Anweisungen innerhalb des BEGIN-COMMIT- oder BEGIN-ROLLBACK-Blocks als einzelne Transaktion ausgeführt. Weitere Informationen zu Transaktionen finden Sie unter [BEGIN](https://docs.aws.amazon.com/redshift/latest/dg/r_BEGIN.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.
+ Die maximale Anzahl von Warnungen, die der Abfrage-Editor v2 während der Ausführung einer SQL-Anweisung anzeigt, beträgt `10`. Wenn beispielsweise eine gespeicherte Prozedur ausgeführt wird, werden maximal 10 RAISE-Anweisungen angezeigt.
+ Query Editor v2 unterstützt keinen IAM-`RoleSessionName` mit Kommas (,). Möglicherweise wird ein Fehler ähnlich dem folgenden angezeigt: Fehlermeldung: „'AROA123456789example:MyText, yourtext' is not a valid value for TagValue - it contains unzulässige Zeichen“ Dieses Problem tritt auf, wenn Sie ein IAM definieren, das ein Komma enthält`RoleSessionName`, und dann den Abfrage-Editor v2 mit dieser IAM-Rolle verwenden.

  [https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_providers_create_saml_assertions.html#saml_role-session-attribute](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_providers_create_saml_assertions.html#saml_role-session-attribute) 

## Kontoeinstellungen
<a name="query-editor-v2-settings"></a>

Ein Benutzer mit den richtigen IAM-Berechtigungen kann **Account settings** (Kontoeinstellungen) für andere Benutzer im selben AWS-Konto anzeigen und ändern. Dieser Administrator kann Folgendes anzeigen oder festlegen:
+ Die maximale Anzahl gleichzeitiger Datenbankverbindungen pro Benutzer im Konto. Dazu gehören Verbindungen für **Isolated sessions** (Isolierte Sitzungen). Wenn Sie diesen Wert ändern, kann es 10 Minuten dauern, bis die Änderung wirksam wird.
+ Erlauben Sie Benutzern im Konto, einen gesamten Ergebnissatz aus einem SQL-Befehl in eine Datei zu exportieren.
+ Laden und zeigen Sie Beispieldatenbanken mit einigen zugehörigen gespeicherten Abfragen an.
+ Geben Sie einen Amazon-S3-Pfad an, der von Kontobenutzern verwendet wird, um Daten aus einer lokalen Datei zu laden.
+ Zeigen Sie den ARN des KMS-Schlüssels an, der zum Verschlüsseln von Ressourcen des Abfrage-Editors v2 verwendet wird.

# Herstellen einer Verbindung mit einer Amazon-Redshift-Datenbank
<a name="query-editor-v2-connecting"></a>

Um eine Verbindung zu einer Datenbank herzustellen, wählen Sie den Namen des Clusters oder der Arbeitsgruppe im Strukturansichtsbereich aus. Geben Sie bei Aufforderung die Verbindungsparameter ein.

Wenn Sie eine Verbindung zu einem Cluster oder einer Arbeitsgruppe und ihren Datenbanken herstellen, geben Sie in der Regel einen Namen für **Database** (Datenbank) an. Sie stellen außerdem Parameter bereit, die für eine der folgenden Authentifizierungsmethoden erforderlich sind:

**IAM Identity Center**  
Stellen Sie mit dieser Methode mit Ihren Single-Sign-On-Anmeldeinformationen von Ihrem Identitätsanbieter (IDP) eine Verbindung zu Ihrem Amazon Redshift Data Warehouse her. Ihr Cluster oder Ihre Arbeitsgruppe muss in der Amazon-Redshift-Konsole für IAM Identity Center aktiviert sein. Hilfe beim Einrichten von Verbindungen zum IAM Identity Center finden Sie unter [Connect Redshift mit AWS IAM Identity Center für ein Single-Sign-On-Erlebnis](redshift-iam-access-control-idp-connect.md).

**Verbundbenutzer**  
Bei dieser Methode müssen die Prinzipal-Tags Ihrer IAM-Rolle oder Ihres Benutzers die Verbindungsdetails angeben. Sie konfigurieren diese Tags in AWS Identity and Access Management oder bei Ihrem Identity Provider (IdP). Der Abfrage-Editor v2 basiert auf den folgenden Tags.  
+ `RedshiftDbUser` – Dieses Tag definiert den Datenbankbenutzer, der vom Abfrage-Editor v2 verwendet wird. Dieses Tag ist erforderlich.
+ `RedshiftDbGroups` – Dieses Tag definiert die Datenbankgruppen, die beim Herstellen einer Verbindung mit dem Abfrage-Editor v2 verbunden werden. Dieses Tag ist optional und sein Wert muss eine durch Doppelpunkte getrennte Liste sein, z. B. `group1:group2:group3`. Leere Werte werden ignoriert, d. h. `group1::::group2` wird als `group1:group2` interpretiert. 
Diese Tags werden an die API `redshift:GetClusterCredentials` weitergeleitet, um Anmeldeinformationen für Ihren Cluster abzurufen. Weitere Informationen finden Sie unter [Einrichten von Prinzipal-Tags für die Verbindung eines Clusters oder einer Arbeitsgruppe von Query Editor v2 aus](query-editor-v2-getting-started.md#query-editor-v2-principal-tags-iam).

**Temporäre Anmeldeinformationen unter Verwendung eines Datenbankbenutzernamens**  
Diese Option ist nur dann verfügbar, wenn Sie eine Verbindung mit einem Cluster herstellen. Bei dieser Methode, Abfrage-Editor v2, geben Sie einen **User name** (Benutzername) für die Datenbank an. Query Editor v2 generiert ein temporäres Passwort, um eine Verbindung zu der Datenbank mit Ihrem Datenbankbenutzernamen herzustellen. Ein Benutzer, der diese Methode verwendet, um eine Verbindung herzustellen, muss über die IAM-Berechtigung `redshift:GetClusterCredentials` verfügen. Wenn Sie verhindern möchten, dass Benutzer diese Methode verwenden, ändern Sie ihren IAM-Benutzer oder ihre -Rolle, um diese Berechtigung zu verweigern. 

**Temporäre Anmeldeinformationen unter Verwendung Ihrer IAM-Identität**  
Diese Option ist nur dann verfügbar, wenn Sie eine Verbindung mit einem Cluster herstellen. Bei dieser Methode ordnet Query Editor v2 Ihrer IAM-Identität einen Benutzernamen zu und generiert ein temporäres Passwort zum Herstellen einer Verbindung zu der Datenbank mit Ihrer IAM-Identität. Ein Benutzer, der diese Methode verwendet, um eine Verbindung herzustellen, muss über die IAM-Berechtigung `redshift:GetClusterCredentialsWithIAM` verfügen. Wenn Sie verhindern möchten, dass Benutzer diese Methode verwenden, ändern Sie ihren IAM-Benutzer oder ihre -Rolle, um diese Berechtigung zu verweigern. 

**Datenbank-Benutzername und -Passwort**  
Geben Sie bei dieser Methode auch einen **User name** (Benutzername) und ein **Password** (Passwort) für die Datenbank an, mit der Sie eine Verbindung herstellen. Der Abfrage-Editor v2 erstellt in Ihrem Namen ein Secret, das in AWS Secrets Manager gesichert wird. Dieses Secret enthält Anmeldeinformationen zum Verbinden mit Ihrer Datenbank. 

**AWS Secrets Manager**  
 Bei dieser Methode geben Sie anstelle eines Datenbanknamens ein in Secrets Manager gespeichertes **Secret** an, das Ihre Datenbank und Ihre Anmeldeinformationen enthält. Weitere Informationen zum Erstellen eines Secrets finden Sie unter [Erstellen eines Secrets für Anmeldeinformationen zur Datenbankverbindung](redshift-secrets-manager-integration-create.md). 

Wenn Sie mit dem Abfrage-Editor v2 einen Cluster oder eine Arbeitsgruppe auswählen, können Sie je nach Kontext Verbindungen über das Kontextmenü (Rechtsklick) erstellen, bearbeiten und löschen. Sie können Attribute wie den **Verbindungs-ARN** der Verbindung anzeigen, indem Sie **Verbindungsdetails** auswählen. Sie können auch an die Verbindung angehängte Tags bearbeiten.

# Durchsuchen einer Amazon-Redshift-Datenbank
<a name="query-editor-v2-object-browse"></a>

In einer Datenbank können Sie Schemata, Tabellen, Ansichten, Funktionen und gespeicherte Prozeduren im Baumansichtsbereich verwalten. Jedem Objekt in der Ansicht sind Aktionen in einem Kontextmenü (rechte Maustaste) zugeordnet.

In der hierarchischen Strukturansicht werden Datenbankobjekte angezeigt. Wenn Sie das Strukturansichtsfenster aktualisieren und Datenbankobjekte anzeigen möchten, die möglicherweise erstellt wurden, nachdem die Strukturansicht zuletzt angezeigt wurde, wählen Sie das ![\[Circular arrow icon representing a refresh or reload action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-refresh.png)-Symbol aus. Beim Öffnen des Kontextmenüs (rechte Maustaste) erscheint ein Objekt, das anzeigt, welche Aktionen Sie ausführen können.

![\[Tree-view icons\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/sqlworkbench-tree-view.png)

Nachdem Sie eine Tabelle ausgewählt haben, haben Sie folgende Optionen:
+ Um eine Abfrage im Editor mit einer SELECT-Anweisung zu starten, die alle Spalten in der Tabelle abfragt, verwenden Sie die Option **Select table** (Tabelle wählen).
+ Um die Attribute oder eine Tabelle anzuzeigen, verwenden Sie die Option **Show table definition** (Tabellendefinition anzeigen). Hiermit können Sie Spaltennamen, Spaltentypen, Kodierung, Verteilungsschlüssel, Sortierschlüssel sehen und ob eine Spalte Nullwerte enthalten kann. Weitere Informationen über Tabellenattribute finden Sie unter [CREATE TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_TABLE_NEW.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.
+ Um eine Tabelle zu löschen, verwenden Sie **Delete** (Löschen). Sie können entweder mit **Truncate table** (Tabelle abschneiden) alle Zeilen aus der Tabelle löschen oder mit **Drop table** (Tabelle entfernen) die Tabelle aus der Datenbank entfernen. Weitere Informationen finden Sie unter [TRUNCATE](https://docs.aws.amazon.com/redshift/latest/dg/r_TRUNCATE.html) und [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

Wählen Sie bei einem Schema **Refresh** (Aktualisieren) oder **Drop Schema** (Schema entfernen) aus. 

Wählen Sie bei einer Ansicht **Show view definition** (Ansichtsdefinition anzeigen) oder **Drop view** (Ansicht entfernen) aus. 

Wählen Sie bei einer Funktion **Show function definition** (Funktionsdefinition anzeigen) oder **Drop function** (Funktion entfernen) aus. 

Wählen Sie bei einer gespeicherten Prozedur **Show procedure definition** (Prozedurdefinition anzeigen) oder **Drop procedure** (Prozedur entfernen) aus. 

# Erstellen von Datenbankobjekten
<a name="query-editor-v2-object-create"></a>

Sie können Datenbankobjekte erstellen, darunter Datenbanken, Schemas, Tabellen und benutzerdefinierte Funktionen (). UDFs Sie müssen mit einem Cluster oder einer Arbeitsgruppe und einer Datenbank verbunden sein, um Datenbankobjekte zu erstellen.

## Erstellen von Datenbanken
<a name="query-editor-v2-object-create-database"></a>

Sie können den Abfrage-Editor v2 verwenden, um Datenbanken in Ihrem Cluster oder Ihrer Arbeitsgruppe zu erstellen.

**Eine Datenbank erstellen**

Weitere Informationen über Datenbanken finden Sie unter [CREATE DATABASE](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_DATABASE.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und danach **Database** (Datenbank).

1. Geben Sie einen **Database name** (Datenbanknamen) ein.

1. (Optional) Wählen Sie **Users and groups** (Benutzer und Gruppen) und dort einen **Database user** (Datenbankbenutzer) aus.

1. (Optional) Sie können die Datenbank aus einem Datashare oder  AWS Glue Data Catalog erstellen. Weitere Informationen zu finden Sie AWS Glue unter [Was ist? AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) im *AWS Glue Entwicklerhandbuch*.
   + (Optional) Wählen Sie **Mit einem Datashare erstellen** aus und klicken Sie auf **Einen Datashare auswählen**. Die Liste enthält Producer-Datashares, mit denen ein Consumer-Datashare im aktuellen Cluster oder in der aktuellen Arbeitsgruppe erstellt werden kann.
   + (Optional) Wählen Sie **Erstellen mit AWS Glue Data Catalog** und wählen Sie **eine AWS Glue-Datenbank aus**. Geben Sie im **Datenkatalogschema** den Namen ein, der für das Schema verwendet wird, wenn auf die Daten in einem dreiteiligen Namen (database.schema.table) verwiesen wird. 

1. Wählen Sie **Datenbank erstellen** aus.

   Die neue Datenbank wird in der Baumansicht angezeigt.

   Wenn Sie den optionalen Schritt zum Abfragen einer Datenbank auswählen, die aus einem Datashare erstellt wurde, stellen Sie eine Verbindung mit einer Amazon-Redshift-Datenbank im Cluster oder in der Arbeitsgruppe her (z. B. die Standarddatenbank `dev`). Verwenden Sie dabei die dreiteilige Notation (database.schema.table), die auf den Datenbanknamen verweist, den Sie beim Auswählen der Option **Mit einem Datashare erstellen** erstellt haben. Die Datashare-Datenbank ist auf der Editor-Registerkarte des Abfrage-Editors v2 aufgeführt, jedoch nicht für eine direkte Verbindung aktiviert.

   Wenn Sie den optionalen Schritt zur Abfrage einer Datenbank wählen, die aus einer erstellt wurde AWS Glue Data Catalog, stellen Sie eine Verbindung zu Ihrer Amazon Redshift Redshift-Datenbank im Cluster oder in der Arbeitsgruppe her (z. B. die Standarddatenbank`dev`) und verwenden Sie die dreiteilige Notation (database.schema.table), die auf den Datenbanknamen verweist, den Sie erstellt haben, als Sie **Create using** ausgewählt haben, auf das Schema AWS Glue Data Catalog, das Sie in **Data catalog** schema benannt haben, und auf die Tabelle in. AWS Glue Data CatalogÄhnlich wie:

   ```
   SELECT * FROM glue-database.glue-schema.glue-table
   ```
**Anmerkung**  
Vergewissern Sie sich, dass Sie mithilfe der Verbindungsmethode **Temporäre Anmeldeinformationen mit Ihrer IAM-Identität** mit der Standarddatenbank verbunden sind und dass Ihren IAM-Anmeldeinformationen Nutzungsrechte für die AWS Glue Datenbank gewährt wurden.  

   ```
   GRANT USAGE ON DATABASE glue-database to "IAM:MyIAMUser"
   ```

   Die AWS Glue Datenbank ist auf der Registerkarte des Abfrage-Editors v2 aufgeführt, sie ist jedoch nicht für eine direkte Verbindung aktiviert.

   *Weitere Informationen zum Abfragen von finden Sie unter [Arbeiten mit von Lake Formation verwalteten Datenfreigaben als Verbraucher](https://docs.aws.amazon.com/redshift/latest/dg/lake-formation-getting-started-consumer.html) und [Arbeiten mit von Lake Formation verwalteten Datenfreigaben als Produzent im Amazon Redshift Database Developer Guide](https://docs.aws.amazon.com/redshift/latest/dg/lake-formation-getting-started-producer.html). AWS Glue Data Catalog*

**Beispiel für das Erstellen einer Datenbank als Datashare-Consumer**

Das folgende Beispiel beschreibt ein bestimmtes Szenario, das verwendet wurde, um mithilfe des Abfrage-Editors v2 eine Datenbank aus einem Datashare zu erstellen. Sehen Sie sich dieses Szenario an, um zu erfahren, wie Sie aus einem Datashare in Ihrer Umgebung eine Datenbank erstellen können. Dieses Szenario verwendet zwei Cluster, `cluster-base` (der Producer-Cluster) und `cluster-view` (der Consumer-Cluster).

1. Verwenden Sie die Amazon-Redshift-Konsole, um einen Datashare für die Tabelle `category2` im Cluster `cluster-base` zu erstellen. Der Producer-Datashare heißt `datashare_base`.

   Weitere Informationen zum Erstellen von Datashares finden Sie unter [Freigeben von Daten über Cluster in Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/datashare-overview.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Verwenden Sie die Amazon-Redshift-Konsole, um einen Datashare `datashare_base` als Consumer für die Tabelle `category2` im Cluster `cluster-view` zu erstellen.

1. Sehen Sie sich das Strukturansichtsfenster im Abfrage-Editor v2 an, das die Hierarchie von `cluster-base` anzeigt als:
   + Cluster: `cluster-base`
     + Datenbank: `dev`
       + Schema: `public`
         + Tabellen: `category2`

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und danach **Database** (Datenbank).

1. Geben Sie `see_datashare_base` als **Datenbankname** ein.

1. Wählen Sie **Mit einem Datashare erstellen** aus und klicken Sie auf **Einen Datashare auswählen**. Wählen Sie `datashare_base` als Quelle der Datenbank aus, die Sie erstellen.

   Das Strukturansichtsfenster im Abfrage-Editor v2 zeigt die Hierarchie von `cluster-view` an als:
   + Cluster: `cluster-view`
     + Datenbank: `see_datashare_base`
       + Schema: `public`
         + Tabellen: `category2`

1. Wenn Sie die Daten abfragen, stellen Sie eine Verbindung mit der Standarddatenbank des Clusters `cluster-view` (in der Regel `dev`) her, aber verweisen Sie auf die Datashare-Datenbank `see_datashare_base` in Ihrem SQL-Code.
**Anmerkung**  
In der Editoransicht des Abfrage-Editors v2 ist der ausgewählte Cluster `cluster-view`. Die ausgewählte Datenbank ist `dev`. Die `see_datashare_base`-Datenbank ist aufgeführt, jedoch nicht für eine direkte Verbindung aktiviert. Sie wählen die `dev`-Datenbank aus und verweisen auf `see_datashare_base` in dem SQL-Code, den Sie ausführen.

   ```
   SELECT * FROM "see_datashare_base"."public"."category2";
   ```

   Die Abfrage ruft Daten aus dem Datashare `datashare_base` im Cluster `cluster_base` ab.

**Beispiel für das Erstellen einer Datenbank aus einem AWS Glue Data Catalog**

Das folgende Beispiel beschreibt ein bestimmtes Szenario, das verwendet wurde, um eine Datenbank AWS Glue Data Catalog mithilfe eines Abfrage-Editors v2 zu erstellen. Sehen Sie sich dieses Szenario an, um zu erfahren, wie Sie eine Datenbank aus einer AWS Glue Data Catalog in Ihrer Umgebung erstellen können. Dieses Szenario verwendet einen Cluster `cluster-view`, der die von Ihnen erstellte Datenbank enthalten soll.

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und danach **Database** (Datenbank).

1. Geben Sie `data_catalog_database` als **Datenbankname** ein.

1. Wählen Sie **Create using a AWS Glue Data Catalog** und **wählen Sie Choose an AWS Glue database** aus. Wählen Sie `glue_db` als Quelle der Datenbank aus, die Sie erstellen.

   Wählen Sie **Datenkatalogschema** aus und geben Sie `myschema` als Schemaname ein, der in dreiteiliger Notation verwendet werden soll.

   Das Strukturansichtsfenster im Abfrage-Editor v2 zeigt die Hierarchie von `cluster-view` an als:
   + Cluster: `cluster-view`
     + Datenbank: `data_catalog_database`
       + Schema: `myschema`
         + Tabellen: `category3`

1. Wenn Sie die Daten abfragen, stellen Sie eine Verbindung mit der Standarddatenbank des Clusters `cluster-view` (in der Regel `dev`) her, aber verweisen Sie auf die Datenbank `data_catalog_database` in Ihrem SQL-Code. 
**Anmerkung**  
In der Editoransicht des Abfrage-Editors v2 ist der ausgewählte Cluster `cluster-view`. Die ausgewählte Datenbank ist `dev`. Die `data_catalog_database`-Datenbank ist aufgeführt, jedoch nicht für eine direkte Verbindung aktiviert. Sie wählen die `dev`-Datenbank aus und verweisen auf `data_catalog_database` in dem SQL-Code, den Sie ausführen.

   ```
   SELECT * FROM "data_catalog_database"."myschema"."category3";
   ```

   Die Abfrage ruft Daten ab, die von  AWS Glue Data Catalog katalogisiert sind.

## Erstellen von Schemata
<a name="query-editor-v2-object-create-schema"></a>

Sie können den Abfrage-Editor v2 verwenden, um Schemata in Ihrem Cluster oder Ihrer Arbeitsgruppe zu erstellen.

**Ein Schema erstellen**

Weitere Informationen über Schemata finden Sie unter [Schemata](https://docs.aws.amazon.com/redshift/latest/dg/r_Schemas_and_tables.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und danach **Schema**.

1. Geben Sie einen **Schema name** (Schemennamen) ein.

1. Wählen Sie entweder **Local** (Lokal) oder **External** (Extern) für **Schema type** (Schematyp) aus.

   Weitere Informationen über lokale Schemata finden Sie unter [CREATE SCHEMA](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_SCHEMA.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. Weitere Informationen über externe Schemata finden Sie unter [CREATE EXTERNAL SCHEMA](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_EXTERNAL_SCHEMA.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wenn Sie **External** (Extern) auswählen, stehen Ihnen folgende Optionen für ein externes Schema zur Verfügung.
   + **Glue Data Catalog** (Glue-Datenkatalog) – zum Erstellen eines externen Schemas in Amazon Redshift, das auf Tabellen in AWS Glue verweist. Wählen Sie neben der AWS Glue Datenbank auch die dem Cluster zugeordnete IAM-Rolle und die dem Datenkatalog zugeordnete IAM-Rolle aus.
   + **PostgreSQL** – zum Erstellen eines externen Schemas in Amazon Redshift, das auf eine Datenbank verweist, die mit Amazon RDS für PostgreSQL oder mit einer Edition von Amazon Aurora PostgreSQL kompatibel ist. Geben Sie die Verbindungsinformationen für die Datenbank an. Weitere Informationen über Verbundabfragen finden Sie unter [Abfragen von Daten mit Verbundabfragen](https://docs.aws.amazon.com/redshift/latest/dg/federated-overview.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.
   + **MySQL** – zum Erstellen eines externen Schemas in Amazon Redshift, das auf eine Datenbank verweist, die mit Amazon RDS für MySQL oder mit einer Edition von Amazon Aurora MySQL kompatibel ist. Geben Sie die Verbindungsinformationen für die Datenbank an. Weitere Informationen über Verbundabfragen finden Sie unter [Abfragen von Daten mit Verbundabfragen](https://docs.aws.amazon.com/redshift/latest/dg/federated-overview.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wählen Sie **Create schema** (Schema erstellen) aus.

   Das neue Schema wird in der Baumansicht angezeigt.

## Erstellen von Tabellen
<a name="query-editor-v2-object-create-table"></a>

Sie können den Abfrage-Editor v2 verwenden, um Tabellen in Ihrem Cluster oder Ihrer Arbeitsgruppe zu erstellen.

**Eine Tabelle erstellen**

Sie können eine Tabelle basierend auf einer CSV-Datei erstellen, in der Sie jede Spalte der Tabelle angeben bzw. definieren. Weitere Informationen über Tabellen finden Sie unter [Gestalten von Tabellen](https://docs.aws.amazon.com/redshift/latest/dg/c_designing-tables-best-practices.html) und [CREATE TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_TABLE_NEW.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

Wählen Sie **Open query in editor** (Abfrage im Editor öffnen) aus, um die Anweisung CREATE TABLE anzuzeigen und zu bearbeiten, bevor Sie die Abfrage zum Erstellen der Tabelle ausführen. 

1. Klicken Sie auf ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) und wählen Sie **Table** (Tabelle) aus.

1. Wählen Sie ein Schema aus.

1. Geben Sie einen Tabellennamen ein.

1. Wählen Sie ![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png) **Add field** (Feld hinzufügen), um eine Spalte hinzuzufügen. 

1. Verwenden Sie eine CSV-Datei als Vorlage für die Tabellendefinition:

   1. Wählen Sie **Load from CSV** (Laden aus CSV) aus.

   1. Gehen Sie zum Speicherort der Datei.

      Wenn Sie eine CSV-Datei verwenden, muss die erste Zeile der Datei die Spaltenüberschriften enthalten.

   1. Wählen Sie die Datei und dann **Open** (Öffnen). Bestätigen Sie, dass die Spaltennamen und Datentypen korrekt sind.

1. Wählen Sie die einzelnen Spalten und die gewünschten Optionen aus:
   + Wählen Sie einen Wert für **Encoding** (Codierung) aus.
   + Wählen Sie einen **Default value** (Standardwert) aus.
   + Aktivieren Sie **Automatically increment** (Automatisch inkrementieren), wenn die Spaltenwerte inkrementiert werden sollen. Geben Sie dann einen Wert für **Auto increment seed** (Seed automatisch inkrementieren) und **Auto increment step** (Schritt automatisch inkrementieren) ein.
   + Aktivieren Sie **Not NULL** (Nicht NULL), wenn die Spalte immer einen Wert enthalten soll.
   + Geben Sie einen Wert für **Size** (Größe) für die Spalte ein.
   + Aktivieren Sie **Primary key** (Primärschlüssel), wenn Sie möchten, dass die Spalte ein Primärschlüssel sein soll.
   + Aktivieren Sie **Unique key** (Einmaliger Schlüssel), wenn Sie möchten, dass die Spalte ein einmaliger Schlüssel sein soll.

1. (Optional) Wählen Sie **Table details** (Tabellendetails) und dann eine der folgenden Optionen aus:
   + Spalte des Verteilungsschlüssels und deren Stil.
   + Spalte des Sortierschlüssels und deren Stil.
   + Aktivieren Sie **Backup**, um die Tabelle in Snapshots aufzunehmen.
   + Aktivieren Sie **Temporary table** (Temporäre Tabelle), um die Tabelle als temporäre Tabelle zu erstellen.

1. Wählen Sie **Open query in editor** (Abfrage im Editor öffnen) aus, um noch mehr Einstellungen zum Definieren der Tabelle zu treffen, bzw. **Create table** (Tabelle erstellen), um die Tabelle zu erstellen.

## Erstellung von Funktionen
<a name="query-editor-v2-object-create-function"></a>

Sie können den Abfrage-Editor v2 verwenden, um Funktionen in Ihrem Cluster oder Ihrer Arbeitsgruppe zu erstellen.

**Eine Funktion erstellen**

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und dann **Function** (Funktion).

1. Wählen Sie bei **Type** entweder **SQL** oder **Python** als Typ aus.

1. Wählen Sie einen Wert für **Schema** aus.

1. Geben Sie bei **Name** einen Namen für die Funktion ein.

1. Geben Sie bei **Volatility** den Wert der Volatilität der Funktion ein.

1. Wählen Sie **Parameters** nach ihren Datentypen in der Reihenfolge der Eingabeparameter.

1. Wählen Sie bei **Returns** (Rückgabewerte) einen Datentyp aus.

1. Geben Sie den **SQL-Programmcode** oder den **Python-Programmcode** für die Funktion ein.

1. Wählen Sie **Erstellen** aus.

Weitere Informationen zu benutzerdefinierten Funktionen (UDFs) finden Sie unter [Erstellen benutzerdefinierter Funktionen](https://docs.aws.amazon.com/redshift/latest/dg/user-defined-functions.html) im *Amazon Redshift Database* Developer Guide. 

# Abfrage- und Registerkarten-Verlauf anzeigen
<a name="query-editor-v2-history"></a>

Sie können den Abfrage-Verlauf mit dem Abfrage-Editor v2 anzeigen. Im Abfrageverlauf werden nur Abfragen angezeigt, die Sie mit dem Abfrage-Editor v2 ausgeführt haben. Es werden Abfragen angezeigt, die über eine **Editor**- oder **Notebook**-Registerkarte ausgeführt wurden. Sie können die angezeigte Liste nach einem Zeitraum filtern, z. B. `This week`, in dem eine Woche als Montag–Sonntag definiert ist. Die Liste der Abfragen ruft gleichzeitig 25 Zeilen mit Abfragen ab, die Ihrem Filter entsprechen. Wählen Sie **Load more (Mehr laden)** aus, um den nächsten Satz anzuzeigen. Wählen Sie eine Abfrage aus dem Menü **Actions (Aktionen)** aus. Die verfügbaren Aktionen hängen davon ab, ob die ausgewählte Abfrage gespeichert wurde. Sie können die folgenden Operationen auswählen:
+ **View query details (Abfragedetails anzeigen)** – zeigt eine Abfragedetailseite mit weiteren Informationen zu der ausgeführten Abfrage an.
+ **Open query in a new tab (Abfrage in einer neuen Registerkarte öffnen)** – öffnet eine neue Editor-Registerkarte und bereitet sie mit der ausgewählten Abfrage vor. Wenn die Verbindung noch besteht, werden der Cluster oder die Arbeitsgruppe und die Datenbank automatisch ausgewählt. Stellen Sie zum Durchführen der Abfrage zunächst sicher, dass der richtige Cluster oder die richtige Arbeitsgruppe und die richtige Datenbank ausgewählt wurden.
+ **Open source tab (Open-Source-Registerkarte)** – wenn die Registerkarte noch geöffnet ist, wird zu der Editor- oder Notebook-Registerkarte navigiert, die die Abfrage bei ihrer Ausführung enthielt. Der Inhalt des Editors oder Notebooks hat sich möglicherweise geändert, nachdem die Abfrage ausgeführt wurde.
+ **Open saved query (Gespeicherte Abfrage öffnen)** – navigiert zur Editor- oder Notebook-Registerkarte und öffnet die Abfrage.

Sie können auch den Verlauf der Abfragen anzeigen, die auf einer **Editor**-Registerkarte ausgeführt wurden, oder den Verlauf der Abfragen, die auf einer **Notebook**-Registerkarte ausgeführt wurden. Wenn Sie den Verlauf der Abfragen auf einer Registerkarte anzeigen möchten, wählen Sie **Tab history (Registerkartenverlauf)** aus. Im Registerkartenverlauf können Sie Folgendes tun:
+ **Copy query (Abfrage kopieren)** – kopiert den SQL-Inhalt der Abfrageversion in die Zwischenablage.
+ **Open query in a new tab (Abfrage in einer neuen Registerkarte öffnen)** – öffnet eine neue Editor-Registerkarte und bereitet sie mit der ausgewählten Abfrage vor. Wenn Sie die Abfrage ausführen möchten, müssen Sie den Cluster oder die Arbeitsgruppe und die Datenbank auswählen.
+ **View query details (Abfragedetails anzeigen)** – zeigt eine Abfragedetailseite mit weiteren Informationen zu der ausgeführten Abfrage an.

# Interagieren mit generativem SQL von Amazon Q
<a name="query-editor-v2-generative-ai"></a>

**Anmerkung**  
Generative SQL-Unterstützung von Amazon Q ist nur in den folgenden Fällen verfügbar AWS-Regionen:  
Region USA Ost (Nord-Virginia) (us-east-1)
Region USA Ost (Ohio) (us-east-2)
Region USA West (Oregon) (us-west-2)
Region Asien-Pazifik (Mumbai) (ap-south-1)
Region Asien-Pazifik (Seoul) (ap-northeast-2)
Region Asien-Pazifik (Singapur) (ap-southeast-1)
Region Asien-Pazifik (Sydney) (ap-southeast-2)
Region Asien-Pazifik (Tokio) (ap-northeast-1)
Region Kanada (Zentral) (ca-central-1)
Region Europa (Frankfurt) (eu-central-1)
Region Europa (Irland) (eu-west-1)
Region Europa (London) (eu-west-2)
Region Europa (Paris) (eu-west-3)
Region Südamerika (São Paulo) (sa-east-1)
Informationen darüber, wo Ihre Daten verarbeitet werden, finden Sie unter [Cross region inference in Amazon Q Developer](https://docs.aws.amazon.com/amazonq/latest/qdeveloper-ug/cross-region-inference.html) im *Benutzerhandbuch von Amazon Q Developer*.

Sie können in Amazon Redshift Query Editor v2 mit der Funktion für generatives SQL von Amazon Q interagieren. Es handelt sich hier um einen Programmierassistenten, der SQL-Anweisungen basierend auf Ihren Aufforderungen und Ihrem Datenbankschema generiert. Dieser Programmierassistent ist verfügbar, während Sie ein Notebook in Query Editor v2 erstellen. Das generierte SQL gilt für die Datenbank, mit der Ihr Notebook verbunden ist.

Stellen Sie bei der Interaktion mit generativem SQL von Amazon Q spezifische Fragen, iterieren Sie bei komplexen Anforderungen und überprüfen Sie die Richtigkeit der Antworten. 

Seien Sie bei Analyseanforderungen in natürlicher Sprache so spezifisch wie möglich, damit der Programmierassistent genau versteht, was Sie benötigen. Anstatt nach „Finden Sie die besten Veranstaltungsorte zu suchen, an denen die meisten Tickets verkauft wurden“, geben Sie mehr Informationen an, z. B. „Finden Sie names/ids die drei Veranstaltungsorte, die 2008 die meisten Tickets verkauft haben“. Verwenden Sie einheitliche und spezifische Namen von Objekten in Ihrer Datenbank, wenn Sie diese kennen. Verwenden Sie beispielsweise die in Ihrer Datenbank definierten Schema-, Tabellen- und Spaltennamen, anstatt auf unterschiedliche Weise auf dasselbe Objekt zu verweisen, da dies den Assistenten verwirren kann.

Unterteilen Sie komplexe Anforderungen in mehrere einfache Anweisungen, die für den Assistenten leichter zu interpretieren sind. Stellen Sie immer wieder Folgefragen, um eine detailliertere Analyse von dem Assistenten zu erhalten. Fragen Sie zum Beispiel zuerst, in welchem Bundesstaat es die meisten Veranstaltungsorte gibt. Fragen Sie dann unter Berücksichtigung der Antwort nach dem beliebtesten Veranstaltungsort in diesem Bundesstaat. 

Überprüfen Sie das generierte SQL vor der Ausführung, um die Richtigkeit sicherzustellen. Wenn die generierte SQL-Abfrage Fehler enthält oder nicht Ihrer Absicht entspricht, geben Sie dem Assistenten Anweisungen zur Korrektur, anstatt die gesamte Anforderung neu zu formulieren. Wenn in der Abfrage beispielsweise eine Prädikatklausel für das Jahr fehlt, fordern Sie den Assistenten auf, die Veranstaltungsorte aus dem Jahr 2008 anzugeben.

Senden Sie den Text der Fehler, die Sie beim Ausführen von generiertem SQL erhalten, als Prompts zurück an das generative SQL von Amazon Q. Dieses lernt aus den Fehlern, um besseres SQL zu erstellen.

Fügen Sie Ihr Schema zum SQL-Suchpfad hinzu, um zu signalisieren, dass das Schema verwendet werden sollte. Fügen Sie beispielsweise das Tickit-Schema hinzu, wenn sich die Daten im Tickit-Schema und nicht im öffentlichen Schema befinden.

```
set search_path to '$user', tickit;
```

## Überlegungen bei der Interaktion mit generativem SQL von Amazon Q
<a name="query-editor-v2-generative-ai-considerations"></a>

Beachten Sie bei der Arbeit im Chat-Bereich Folgendes:
+ Der Administrator von Query Editor v2 für Ihr Konto muss die Chat-Funktion auf der Seite **Einstellungen für generatives SQL** aktiviert haben.
+ Um Amazon Q Generative SQL verwenden zu können, benötigen Sie zusätzlich zu anderen Berechtigungen, die `sqlworkbench:GetQSqlRecommendations` in der AWS verwalteten Richtlinie für den Abfrage-Editor v2 angegeben sind, eine Genehmigung in Ihrer IAM-Richtlinie. Weitere Informationen zu AWS verwalteten Richtlinien finden Sie unter[Zugreifen auf den Abfrage-Editor v2](query-editor-v2-getting-started.md#query-editor-v2-configure).
+ Ihre Fragen müssen auf Englisch verfasst werden.
+ Ihre Fragen müssen sich auf die verbundene Datenbank in Ihrem Cluster oder Ihrer Arbeitsgruppe beziehen. Um Fehler wegen eines leeren Zustands zu vermeiden, sollte die Datenbank mindestens eine Tabelle und einige Daten enthalten.
+ Ihre Fragen müssen sich auf Daten beziehen, die in der verbundenen Datenbank gespeichert sind. Sie können nicht auf ein externes Schema verweisen. Weitere Informationen zu den unterstützten Schemas finden Sie unter [Erstellen eines Schemas](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_EXTERNAL_SCHEMA.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.
+ Bei allen Fragen, die bewirken, dass SQL die verbundene Datenbank ändert, kann es zu einer Warnung kommen.
+ Generative KI-Technologie ist neu und die Antworten können Fehler enthalten, die manchmal als Halluzinationen bezeichnet werden. Testen und überprüfen Sie den gesamten Code auf Fehler und Schwachstellen, bevor Sie ihn in Ihrer Umgebung oder Ihrem Workload verwenden.
+ Sie können die Empfehlungen verbessern, indem Sie die von anderen Benutzern in Ihrem Konto ausgeführten SQL-Abfragen gemeinsam nutzen. Ihr Kontoadministrator kann die folgenden SQL-Befehle ausführen, um Zugriff auf den Abfrageverlauf des Kontos zu gewähren.

  ```
  GRANT ROLE SYS:MONITOR to "IAMR:role-name";
  GRANT ROLE SYS:MONITOR to "IAM:user-name";
  GRANT ROLE SYS:MONITOR to "database-username";
  ```

  Weitere Informationen zu `SYS:MONITOR` finden Sie unter [Systemdefinierte Amazon-Redshift-Rollen](https://docs.aws.amazon.com/redshift/latest/dg/r_roles-default.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.
+ Ihre Daten sind sicher und privat. Ihre Daten werden nicht kontoübergreifend gemeinsam genutzt. Ihre Abfragen, Daten und Datenbankschemas werden nicht zum Trainieren eines Basismodells (FM) für generative KI verwendet. Ihre Eingaben werden als kontextbezogene Aufforderungen an das FM nur zur Beantwortung Ihrer Fragen verwendet.

# Verwendung von generativem SQL
<a name="query-editor-v2-generative-ai-interact"></a>

Nach Konfiguration der richtigen Berechtigungen können Sie bei der Arbeit mit einem Notebook in Query Editor v2 ein Symbol auswählen, um eine Konversation zu starten.

**So interagieren Sie mit dem generativen SQL von Amazon Q, um SQL zu generieren**

1. Öffnen Sie auf der Registerkarte **Editor** von Query Editor v2 ein Notebook.

1. Wählen Sie das Symbol für generatives SQL ![\[Generative SQL panel\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-amazon-q.png) aus und folgen Sie dann den Anweisungen, um Ihre Fragen an das generative SQL von Amazon Redshift Query Editor v2 im Chat-Bereich zu stellen.

   Sie stellen Fragen in einem Prompt-Feld und das generative SQL von Amazon Q antwortet mit SQL-Vorschlägen. Alle aufgetretenen Fehler werden Ihnen im Chat-Bereich zurückgemeldet.

1. Wählen Sie **Zu Notebook hinzufügen** aus, um Ihrem Notebook eine Markdown-Zelle mit Ihrer Aufforderung und eine SQL-Zelle mit dem vorgeschlagenen SQL hinzuzufügen.

1. (Optional) Geben Sie Feedback zu dem generierten SQL, indem Sie das Symbol für hilfreiches Feedback ![\[Helpful feedback\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-thumbs-up.png) oder das Symbol für nicht hilfreiches Feedback ![\[Not helpful feedback\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-thumbs-down.png) auswählen. Sie können nicht hilfreiches Feedback als `Incorrect tables/columns`, `Incorrect predicates/literals/group bys`, `Incorrect SQL structure` oder `Other` kategorisieren. Darüber hinaus können Sie Ihrem Feedback Angaben zur Genauigkeit des SQL in Form von Text in freier Form hinzufügen.

1. (Optional) Wählen Sie **SQL neu generieren** aus, um eine andere Antwort für dieselbe Aufforderung zu generieren. Sie können **SQL neu generieren** einmal für die aktuelle Aufforderung auswählen.

1. (Optional) Wählen Sie im generativen SQL-Chatbereich das Symbol für **Mehr** ![\[More\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-vmore.png) und anschließend **Datenbank aktualisieren** aus, um die Metadaten zu aktualisieren, die Ihre verbundene Datenbank beschreiben. Diese Metadaten umfassen die Definitionen von Schemas, Tabellen und Spalten in Ihrer Datenbank.

# Aktualisieren der Einstellungen für generatives SQL als Administrator
<a name="query-editor-v2-generative-ai-settings"></a>

Ein Benutzer mit den richtigen IAM-Berechtigungen kann die **Einstellungen für generatives SQL** für andere Benutzer in demselben AWS-Konto anzeigen und ändern. Dieser Administrator muss zusätzlich zu anderen `sqlworkbench:UpdateAccountQSqlSettings` in der AWS verwalteten Richtlinie für den Abfrage-Editor v2 angegebenen Berechtigungen über entsprechende Berechtigungen in seiner IAM-Richtlinie verfügen. Weitere Informationen über verwaltete Richtlinien finden Sie unter [Für die Verwendung des Abfrage-Editors v2 erforderliche Berechtigungen](redshift-iam-access-control-identity-based.md#redshift-policy-resources.required-permissions.query-editor-v2).

**So kann ein Administrator den generativen SQL-Chat für alle Benutzer in dem Konto aktivieren**

1. Wählen Sie das Symbol für **Einstellungen** ![\[Settings\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-cog.png) aus, um ein Menü mit den verschiedenen Einstellungsbildschirmen anzuzeigen.

1. Wählen Sie dann das Symbol für Einstellungen für generatives SQL ![\[Generative SQL settings\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-amazon-q.png) aus, um die Seite mit den **Einstellungen für generatives SQL von Q** anzuzeigen.

1. Wählen Sie **Einstellungen für generatives SQL von Q** aus, um die Funktion für generatives SQL für Benutzer in dem Konto zu aktivieren.

   Nachdem Sie das generative SQL von Amazon Q aktiviert haben, können Sie die Anzahl der in Ihrer Zuordnung verbleibenden Prompts anzeigen. Der Administrator von Query Editor v2 kann Benutzern im Konto die Nutzung der Stufe Amazon Q Developer Pro ermöglichen. Um die Pro-Stufe zu nutzen, richten Sie Ihre Benutzer mit IAM Identity Center ein und abonnieren Sie für jeden Benutzer die Stufe Amazon Q Developer Pro. Weitere Informationen zum Einrichten des IAM Identity Center mit Amazon Redshift finden Sie unter [Connect Redshift mit AWS IAM Identity Center für ein Single-Sign-On-Erlebnis](redshift-iam-access-control-idp-connect.md). Informationen zu den Preisen für Amazon Q Developer finden Sie unter [Preise von Amazon Q Developer](https://aws.amazon.com/q/developer/pricing/).

   Wenn Sie das kostenlose Kontingent Amazon Q Developer nutzen, AWS-Konto ist die Gesamtzahl der Eingabeaufforderungen aller Benutzer von an auf 1.000 pro Monat begrenzt. Wenn Sie die Stufe Amazon Q Developer Pro nutzen, ist die Gesamtzahl der Prompts jedes einzelnen Benutzers auf 1 000 pro Monat begrenzt. Sie können die Anzahl der verfügbaren Prompts auf der Seite **Einstellungen** einsehen. Informationen zu den Preisen für Amazon Q Developer finden Sie unter [Preise von Amazon Q Developer](https://aws.amazon.com/q/developer/pricing/).

## Benutzerdefinierter Kontext
<a name="query-editor-v2-generative-custom-context"></a>

Der Administrator von Query Editor v2 kann *benutzerdefinierten Kontext* angeben, um das generierte SQL an Ihre Umgebung anzupassen. Benutzerdefinierter Kontext stellt Fachwissen und Einstellungen bereit, um eine detaillierte Kontrolle über die SQL-Generierung zu ermöglichen. Benutzerdefinierter Kontext ist in einer JSON-Datei definiert, die vom Administrator von Query Editor v2 in generatives SQL von Amazon Q hochgeladen werden kann.

Die JSON-Schlüssel, die zur Personalisierung von generiertem SQL für ein Data Warehouse verwendet werden, lauten wie folgt.

Alle Tabellenverweise müssen der dreiteiligen Notation `database.schema.table` folgen.

**Ressourcen**  
Eine Ressource gibt den Bereich oder Teil eines Datenbestands an, auf den der benutzerdefinierte Kontext angewendet wird.

**ResourceId**  
Gibt eine eindeutige Kennung der Ressource an. Geben Sie für einen Amazon-Redshift-Cluster die `cluster id` an. Geben Sie für eine Redshift-Serverless-Arbeitsgruppe den `workgroup name` an.

**ResourceType**  
Zulässiger Wert: `REDSHIFT_WAREHOUSE`.

**TablesToInclude**  
Gibt eine Gruppe von Tabellen an, die für die SQL-Generierung berücksichtigt werden. Dieses Feld ist wichtig, wenn Sie den Umfang von SQL-Abfragen auf eine definierte Teilmenge verfügbarer Tabellen beschränken möchten. Es kann zur Optimierung des Generierungsprozesses beitragen, indem unnötige Tabellenverweise reduziert werden. Sie können dieses Feld mit `TablesToExclude` kombinieren, um die Abfragegenerierung genauer steuern zu können.

**TablesToExclude**  
Gibt die Gruppe von Tabellen an, die von der SQL-Generierung ausgeschlossen sind. Verwenden Sie diese Option, wenn bestimmte Tabellen irrelevant sind oder bei der Generierung von Abfragen nicht berücksichtigt werden sollten. 

**TableAnnotations**  
Stellt Metadaten oder zusätzliche Informationen zu den verwendeten Tabellen bereit. Diese Anmerkungen können Tabellenbeschreibungen, Nutzungshinweise oder zusätzliche Attribute enthalten, die dem generativen SQL von Amazon Q helfen, den Kontext oder die Struktur der Tabelle besser zu verstehen. Dies ist nützlich, um die Genauigkeit der SQL-Generierung zu verbessern, indem es die Tabellendefinitionen übersichtlicher macht.

**ColumnsToInclude**  
Definiert, welche Spalten aus den angegebenen Tabellen bei der Generierung von SQL-Abfragen einbezogen werden. Dieses Feld hilft dem generativen SQL von Amazon Q, sich auf die relevanten Spalten zu konzentrieren, und verbessert die Leistung, indem der Umfang des Datenabrufs eingeschränkt wird. Es stellt sicher, dass das generative SQL von Amazon Q nur Daten abruft, die für den betreffenden Abfragekontext benötigt werden.

**ColumnsToExclude**  
Gibt die Spalten an, die bei der SQL-Generierung nicht berücksichtigt werden. Dies kann verwendet werden, wenn bestimmte Spalten irrelevante oder redundante Daten enthalten, die vom generativen SQL von Amazon Q nicht berücksichtigt werden sollten. Durch die Verwaltung der Einbeziehung und des Ausschlusses von Spalten können Sie die Ergebnisse verfeinern und die Kontrolle über die abgerufenen Daten behalten.

**ColumnAnnotations**  
Ähnlich wie `TableAnnotations` enthält dieses Feld spezifische Metadaten oder Anmerkungen für einzelne Spalten. Diese Anmerkungen können Einblicke in Spaltendefinitionen oder spezielle Behandlungsanweisungen bieten. Diese Informationen sind nützlich, um den SQL-Generierungsprozess zu steuern und sicherzustellen, dass die Spalten in Abfragen angemessen verwendet werden.

**CuratedQueries**  
Eine Reihe vordefinierter Beispiele für Fragen und Antworten, wobei die Frage in natürlicher Sprache (NLQ) geschrieben ist und die entsprechende SQL-Abfrage die Antwort darstellt. Diese Beispiele helfen dem generativen SQL von Amazon Q, zu verstehen, welche Arten von Abfragen es generieren soll. Sie dienen als Referenzpunkte, um die Genauigkeit und Relevanz generativer SQL-Ausgaben von Amazon Q zu verbessern.

**CustomDocuments**  
Zusätzliche Informationen oder Hinweise, die dem generativen SQL von Amazon Q zur Verfügung gestellt werden, wie Definitionen, Domain-spezifisches Wissen oder Erklärungen. Wenn Ihre Geschäftseinheit beispielsweise eine spezielle Methode zur Berechnung eines Werts verwendet, z. B. „In der Fertigungsabteilung ist der Gesamtumsatz Preis x Umsatz“, kann dies hier dokumentiert werden. Diese Dokumente verbessern die Fähigkeit des generativen SQL von Amazon Q, die Eingaben in natürlicher Sprache zu interpretieren, indem sie zusätzlichen Kontext bereitstellen.

**AdditionalTables**  
Gibt alle zusätzlichen Tabellen an, die für die SQL-Generierung berücksichtigt werden sollten, aber nicht Teil der im Data Warehouse gespeicherten Daten sind. Dies ermöglicht es dem generativen SQL von Amazon Q, externe Datenquellen in seine SQL-Generierungslogik zu integrieren und so seine Kapazität für den Umgang mit komplexen Datenumgebungen zu erweitern.

**AppendToPrompt**  
Zusätzliche Anweisungen oder Richtlinien, die dem generativen SQL von Amazon Q zur Verfügung gestellt wurden, um den Prozess der SQL-Generierung zu steuern. Dies kann spezifische Anweisungen zur Strukturierung der Abfrage, Einstellungen für bestimmte SQL-Konstrukte oder andere allgemeine Anweisungen beinhalten, die die Qualität der generativen SQL-Ausgabe von Amazon Q verbessern.

Der folgende benutzerdefinierte Beispielkontext zeigt das Format der JSON-Datei und definiert Folgendes:
+ Einen benutzerdefinierten Kontext für das Amazon Redshift Data Warehouse für den Cluster `mycluster`.
+ Bestimmte Tabellen und Spalten, die einbezogen und ausgeschlossen werden sollen, um den SQL-Generierungsprozess zu optimieren.
+ Anmerkungen für die Tabellen und Spalten, die einbezogen werden sollen.
+ Kuratierte Beispielabfragen für die Verwendung durch das generative SQL von Amazon Q.
+ Benutzerdefinierte Dokumente und Integritätsschutzmaßnahmen, die bei der SQL-Generierung verwendet werden sollen.
+ DDL für zusätzliche Tabellen, die beim Generieren von SQL verwendet werden sollen.

```
{
    "resources": [
        {
            "ResourceId": "mycluster",
            "ResourceType": "REDSHIFT_WAREHOUSE",
            "TablesToInclude": [
                "database.schema.table1",
                "database.schema.table2"
            ],
            "TablesToExclude": [
                "database.schema.table3",
                "database.schema.table4"
            ],
            "ColumnsToInclude": {
                "database.schema.table1": [
                    "col1",
                    "col2"
                ],
                "database.schema.table2": [
                    "col1",
                    "col2"
                ]
            },
            "ColumnsToExclude": {
                "database.schema.table5": [
                    "col1",
                    "col2"
                ],
                "database.schema.table6": [
                    "col1",
                    "col2"
                ]
            },
            "TableAnnotations": {
                "database.schema.table1": "table1 refers to Q3 sales",
                "database.schema.table2": "table2 refers to Q4 sales"
            },
            "ColumnAnnotations": {
                "database.schema.table1": {
                    "col1": "col1 refers to Q3 sale total",
                    "col2": "col2 refers to sale location"
                },
                "database.schema.table2": {
                    "col1": "col2 refers to Q4 sale total",
                    "col2": "col2 refers to sale location"
                }
            },
            "CuratedQueries": [
                {
                    "Question": "what is the sales data for Q3",
                    "Answer": "SELECT * FROM table1"
                },
                {
                    "Question": "what is the sales data for Q4",
                    "Answer": "SELECT * FROM table2"
                }
            ],
            "CustomDocuments": [
                "in manufacturing division total sales is price * revenue",
                "in research division total sales is price * revenue"
            ],
            "AdditionalTables": {
                "database.schema.table8": "create table database.schema.table8(col1 int)",
                "database.schema.table9": "create table database.schema.table9(col1 int)"
            },
            "AppendToPrompt": "Apply these guardrails: Queries should never return the secretId field of a user."
        }
    ]
}
```

# Tutorial: Verwendung der Amazon-Q-Funktion für generatives SQL mit den TICKIT-Daten
<a name="query-editor-v2-generative-ai-example"></a>

Um effiziente Aufforderungen zum Generieren von SQL zu erstellen, müssen Sie sich mit Ihrem Datenbankschema und Ihren Daten vertraut machen. Die TICKIT-Daten umfassen sieben Tabellen, zwei Faktentabellen und fünf Dimensionen. Die Beispieldaten enthalten Aufzeichnungen über Verkäufe an Besucher von Unterhaltungsveranstaltungen, die im Jahr 2008 stattfanden. Weitere Informationen über das TICKIT-Datenschema finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. Sie können die TICKIT-Daten mit verschiedenen Methoden in der Amazon Redshift-Konsole und in Query Editor v2 in eine Datenbank laden. Query Editor v2 bietet eine Methode zum Laden von TICKIT-Daten in die Datenbank `sample_data_dev`. Weitere Informationen finden Sie unter [Laden von Daten in eine Datenbank](query-editor-v2-loading.md). Query Editor v2 bietet auch Beispielaufforderungen für die TICKIT-Daten. Das folgende Szenario beschreibt eine Konversation mit generativem SQL zum Generieren von SQL zu den TICKIT-Beispieldaten. In diesem Szenario sind die TICKIT-Beispieldaten bereits in einer Datenbank `dev` in einem Amazon-Redshift-Cluster erstellt. 

**Anmerkung**  
Dieses Beispiel dient der Veranschaulichung einer Konversation. Es kann sein, dass die Antworten des generativen SQL nicht mit den Ergebnissen übereinstimmen, die Sie bei Verwendung derselben Aufforderungen erhalten.

**Beispiel für eine Konversation mit generativem SQL von Amazon Q**

1. Stellen Sie im **Editor** eine Verbindung zu einem Cluster oder einer Arbeitsgruppe her, die die TICKIT-Beispieldaten enthält.

1. Erstellen Sie ein leeres Notebook und wählen Sie das Symbol für generatives SQL ![\[Generative SQL\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-amazon-q.png), um den Chat-Bereich zu öffnen.

1. Geben Sie die folgende Aufforderung ein, um SQL zur Überprüfung der Anzahl der Datensätze in der Tabelle `VENUE` zu generieren:

   ```
   How many venues are there?
   ```

   ```
   SELECT
     COUNT(*) AS num_venues
   FROM
     tickit.venue
   ```

   Wählen Sie **Zu Notebook hinzufügen** aus, um dem geöffneten Notebook zwei Zellen hinzuzufügen. Eine Markdown-Zelle „How many venues are there?“ und eine mit dem generierten SQL.

   Wählen Sie in der SQL-Zelle **Ausführen** aus, um das Ergebnis zu erhalten:

   ```
   count
   ------
   202
   ```

1. Um nach einer anderen Version von SQL zu fragen, wählen Sie **SQL neu generieren** aus. Sie erhalten die folgende Antwort:

   ```
   SELECT
     venuestate,
     COUNT(*) AS num_venues
   FROM
     tickit.venue
   GROUP BY
     venuestate
   ```

   Wählen Sie **Zu Notebook hinzufügen** aus, um dem geöffneten Notebook zwei weitere Zellen hinzuzufügen. Eine Markdown-Zelle „How many venues are there?“ und eine mit dem generierten SQL.

   Wählen Sie in der SQL-Zelle die Option **Ausführen** aus, um das Ergebnis, eine Auflistung der Bundesstaaten der Veranstaltungsorte nach Anzahl, zu erhalten.

   ```
   venuestate num_venues
   ----------------------
   MA         4	
   OH         8	
   MI         5	
   ...
   ```

1. Der generative SQL-Assistent kann Annahmen darüber treffen, was Sie fragen. Obwohl es in der Datenbank keine Widgets gibt, können Sie dennoch fragen. In diesem Fall erhalten Sie die Meldung, dass kein SQL generiert werden konnte.

   ```
   How many widgets are there?
   ```

   ```
   I was not able to generate any SQL
   ```

1. Wenn Sie mehr über Ihre Datenbank erfahren, können Sie spezifischere Fragen zum Generieren von SQL stellen. Sie wissen beispielsweise, dass die Datenbank Verkaufsdaten zu mehreren Monaten im Jahr 2008 enthält. Geben Sie die folgende Aufforderung ein, um SQL zur Ermittlung der Anzahl der Verkäufe im November 2008 zu generieren:

   ```
   How many sales were there in November 2008?
   ```

   ```
   SELECT
     COUNT(*) AS num_sales
   FROM
     tickit.sales s
     JOIN tickit.date d ON s.dateid = d.dateid
   WHERE
     d.month = 'November'
     AND d.year = 2008
   ```

   Wählen Sie **Zu Notebook hinzufügen** aus, um dem geöffneten Notebook zwei Zellen hinzuzufügen. Eine Markdown-Zelle „How many sales were there in November 2008?“ und eine mit dem generierten SQL.

   Wählen Sie in der SQL-Zelle **Ausführen** aus, um das Ergebnis zu erhalten:

   ```
   num_sales
   -----
   0
   ```

   Sie erkennen, dass dies nicht das Ergebnis ist, das Sie erwartet haben.

1. Sie stellen fest, dass das Prädikat `date.month='November'` erwartet, dass der Monat in der DATE-Tabelle durch eine Abkürzung des Monatsnamens dargestellt wird. Sie ändern das Prädikat in `d.month='NOV'` und führen das SQL erneut aus.

   ```
   SELECT
     COUNT(*)
   FROM
     sales
     JOIN date ON sales.dateid = date.dateid
   WHERE
     date.month = 'NOV'
     AND date.year = 2008
   ```

   Wählen Sie in der SQL-Zelle **Ausführen** aus, um neue Ergebnisse zu erhalten.

   ```
   count
   -----
   14261
   ```

1. Wenn Sie eine Frage stellen, die versucht, die verbundene Datenbank zu ändern, wird eine Warnmeldung zusammen mit dem empfohlenen SQL zurückgegeben. Geben Sie die folgende Aufforderung ein, um SQL zum Einfügen von Daten in eine Tabelle zu generieren:

   ```
   Insert 1 into the venue table.
   ```

   ```
   INSERT
   ,
   UPDATE
     OR delete data
   FROM
     the database AS that could potentially change the data.Please provide a query that ONLY selects data
   ```

   ```
   I was not able to generate the correct SQL code. I generated SQL, but you'll have to edit it to work with your database.
   ```

   Wenn Sie **Zu Notebook hinzufügen** auswählen, um dem geöffneten Notebook zwei Zellen hinzuzufügen und das SQL auszuführen, schlägt das SQL fehl.

   ```
   ERROR: syntax error at or near "," Position: 132 [ErrorId: 1-6546764a-011df2691778846219ce6ec2]
   ```

In diesem Szenario wurden nur einige grundlegende Möglichkeiten zur Interaktion mit dem generativen SQL von Amazon Q veranschaulicht. Sie können noch mehr mit dieser generativen KI-Technologie experimentieren, um leichter mit der Erstellung von SQL zur Abfrage Ihrer Datenbank beginnen zu können.

# Laden von Daten in eine Datenbank
<a name="query-editor-v2-loading"></a>

Mit dem Abfrage-Editor v2 können Sie Daten in eine Datenbank in einem Amazon-Redshift-Cluster oder einer Amazon-Redshift-Arbeitsgruppe laden. In diesem Abschnitt wird beschrieben, wie Beispieldaten, Daten aus S3 und Daten aus einer lokalen Dateieinrichtung und einem Workflow geladen werden.

## Beispieldaten
<a name="query-editor-v2-loading-sample-data"></a>

Der Abfrage-Editor v2 umfasst Beispieldaten und -Notebooks, die in eine Beispieldatenbank und ein entsprechendes Schema geladen werden können. 

Um Beispieldaten zu laden, wählen Sie das ![\[External\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/external.png)-Symbol aus, das den zu ladenden Beispieldaten zugeordnet ist. Query Editor v2 lädt dann die Daten in ein Schema in der Datenbank `sample_data_dev` und erstellt einen Ordner mit gespeicherten Notebooks. 

Die folgenden Beispieldatensätze sind verfügbar.

**Tickit**  
In den meisten Beispielen der Amazon-Redshift-Dokumentation werden Beispieldaten namens `tickit` verwendet. Diese Daten umfassen sieben Tabellen, zwei Faktentabellen und fünf Dimensionen. Wenn Sie diese Daten laden, wird das Schema `tickit` mit Beispieldaten aktualisiert. Weitere Informationen über `tickit`-Daten finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

**tpch**  
Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema `tpch` mit Beispieldaten aktualisiert. Weitere Informationen zu `tpch`-Daten finden Sie unter [TPC-H](http://www.tpc.org/tpch/). 

**tpcds**  
Diese Daten werden für ein Benchmarking zur Entscheidungsunterstützung verwendet. Wenn Sie diese Daten laden, wird das Schema `tpcds` mit Beispieldaten aktualisiert. Weitere Informationen zu `tpcds`-Daten finden Sie unter [TPC-DS](http://www.tpc.org/tpcds/). 

# Daten aus Amazon S3 laden
<a name="query-editor-v2-loading-data"></a>

Sie können Amazon-S3-Daten in eine vorhandene oder neue Tabelle laden.

**Daten in eine vorhandene Tabelle laden**

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus dem Amazon-Simple-Storage-Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten. 

1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

   Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Datenquelle** die Option **Aus S3-Bucket laden** aus.

1. Wählen Sie in **S3** **Browse S3 URIs**, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält. 

1. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den **S3-Dateispeicherort für den AWS-Region Speicherort** der Daten.

1. Wählen Sie **Diese Datei ist eine Manifestdatei**, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Bestehende Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank**, **Schema** und Name der **Tabelle**, in die die Daten geladen werden.

1. Wählen Sie eine **IAM role** (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

1. (Optional) Wählen Sie Spaltennamen aus, um sie in das Feld **Column mapping** (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das **Result** (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

**So laden Sie Daten in eine neue Tabelle**

Der Abfrage-Editor v2 nutzt den Befehl COPY, um Daten aus Amazon S3 zu laden. Der Befehl COPY wird im Assistenten „Load data“ (Daten laden) des Abfrage-Editors v2 generiert und verwendet. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus dem Amazon-Simple-Storage-Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich in der Strukturansicht von Query Editor v2, dass Sie mit der Zieldatenbank verbunden sind, bevor Sie fortfahren. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

   Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Datenquelle** die Option **Aus S3-Bucket laden** aus.

1. Wählen Sie in **S3** **Browse S3 URIs**, um nach dem Amazon S3 S3-Bucket zu suchen, der die zu ladenden Daten enthält. 

1. Wenn sich der angegebene Amazon S3 S3-Bucket nicht in derselben Tabelle befindet AWS-Region wie die Zieltabelle, wählen Sie den **S3-Dateispeicherort für den AWS-Region Speicherort** der Daten.

1. Wählen Sie **Diese Datei ist eine Manifestdatei**, wenn es sich bei der Amazon S3-Datei tatsächlich um ein Manifest handelt, das mehrere Amazon S3 S3-Buckets enthält URIs.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. Wählen Sie eine Komprimierungsmethode aus, mit der Ihre Datei komprimiert werden soll. Die Standardeinstellung ist keine Komprimierung.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Neue Tabelle laden** aus.

   Die Tabellenspalten werden aus den Eingabedaten abgeleitet. Sie können die Definition des Tabellenschemas ändern, indem Sie Spalten und Tabellendetails hinzufügen. Um zum abgeleiteten Tabellenschema von Query Editor v2 zurückzukehren, wählen Sie **Auf Standardwerte zurücksetzen** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank** und **Schema**, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende **Tabelle** ein.

1. Wählen Sie eine **IAM role** (IAM-Rolle) aus, die über die erforderlichen Berechtigungen zum Laden von Daten aus Amazon S3 verfügt.

1. Wählen Sie **Tabelle erstellen** aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

   Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Nach Abschluss des Ladens wird der Abfrage-Editor mit dem generierten COPY-Befehl angezeigt, der zum Laden Ihrer Daten verwendet wurde. Das **Result** (Ergebnis) von COPY wird angezeigt. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

# Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow
<a name="query-editor-v2-loading-data-local"></a>

Sie können Daten aus einer lokalen Datei in eine vorhandene oder neue Tabelle laden.

## Einrichtung durch den Administrator für das Laden von Daten aus einer lokalen Datei
<a name="query-editor-v2-loading-data-local-setup"></a>

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Account settings** (Kontoeinstellungen) angeben. Die Kontobenutzer müssen mit den richtigen Berechtigungen konfiguriert werden.
+ Erforderliche IAM-Berechtigungen: Die Benutzer, die die Funktion zum Laden von Daten aus einer lokalen Datei verwenden sollen, müssen über die Berechtigungen `s3:ListBucket`, `s3:GetBucketLocation`, `s3:putObject`, `s3:getObject` und `s3:deleteObject` verfügen. Die *optional-prefix* kann angegeben werden, um die Verwendung dieses Buckets im Zusammenhang mit dem Abfrage-Editor v2 auf Objekte mit diesem Präfix zu beschränken. Diese Option könnten Sie verwenden, wenn Sie denselben Amazon-S3-Bucket auch für andere Zwecke als den Abfrage-Editor v2 verwenden. Weitere Informationen zu Buckets und Präfixen finden Sie unter [Verwalten des Benutzerzugriffs auf bestimmte Ordner](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies.html#example-bucket-policies-folders) im *Benutzerhandbuch zu Amazon Simple Storage Service*. Um sicherzustellen, dass kein benutzerübergreifender Datenzugriff zulässig ist, empfehlen wir dem Administrator für Query Editor v2, eine Amazon-S3-Bucket-Richtlinie zu verwenden, um den Objektzugriff auf der Grundlage von `aws:userid` einzuschränken. Das folgende Beispiel gewährt Amazon S3 S3-Berechtigungen für a *<staging-bucket-name>* mit Lese-/Schreibzugriff nur für Amazon S3 S3-Objekte mit dem Präfix `aws:userid` as.

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Effect": "Allow",
              "Action": [
                  "s3:ListBucket",
                  "s3:GetBucketLocation"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>"
              ]
          },
          {
              "Effect": "Allow",
              "Action": [
                  "s3:PutObject",
                  "s3:GetObject",
                  "s3:DeleteObject"
              ],
              "Resource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
          }
      ]
  }
  ```

------
+ Datentrennung: Die Benutzer sollten keinen Zugriff auf die Daten der anderen Benutzer haben (auch nicht kurzzeitig). Beim Laden aus einer lokalen Datei wird der Amazon-S3-Staging-Bucket verwendet, der vom Administrator für den Abfrage-Editor v2 eingerichtet wurde. Konfigurieren Sie die Bucket-Richtlinie für den Staging-Bucket, um für eine Datentrennung zwischen Benutzern zu sorgen. Das folgende Beispiel zeigt eine Bucket-Richtlinie, die Daten zwischen Benutzern von trennt. *<staging-bucket-name>*

------
#### [ JSON ]

****  

  ```
  {
   "Version":"2012-10-17",		 	 	 
      "Statement": [
          {"Sid": "userIdPolicy",
              "Effect": "Deny",
              "Principal": "*",
              "Action": ["s3:PutObject",
                         "s3:GetObject",
                         "s3:DeleteObject"],
              "NotResource": [
                  "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*"
              ]
           }
      ]
  }
  ```

------

## Laden von Daten aus einer lokalen Datei
<a name="query-editor-v2-loading-data-local-procedure"></a>

**So laden Sie Daten aus einer lokalen Datei in eine vorhandene Tabelle**

Ihr Administrator für Query Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Kontoeinstellungen** angeben. Query Editor v2 lädt die lokale Datei automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hoch und verwendet dann den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus Amazon S3](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten. 

1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden. 

1. Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Data source** (Datenquelle) die Option **Load from local file** (Aus lokaler Datei laden) aus.

1. Wählen Sie **Durchsuchen** aus, um nach der Datei zu suchen, die die Daten für **Datei laden** enthält. Standardmäßig werden Dateien mit der Erweiterung `.csv`, `.avro`, `.parquet` und `.orc` angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Bestehende Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank**, **Schema** und Name der **Tabelle**, in die die Daten geladen werden.

1. (Optional) Sie können Spaltennamen auswählen, um sie in das Feld **Column mapping** (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

   Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (**Query history**) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter [Abfrage- und Registerkarten-Verlauf anzeigen](query-editor-v2-history.md).

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

**So laden Sie Daten aus einer lokalen Datei in eine neue Tabelle**

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster **Account settings** (Kontoeinstellungen) angeben. Die lokale Datei wird automatisch in einen von Ihrem Konto verwendeten gemeinsamen Amazon-S3-Bucket hochgeladen. Anschließend verwendet der Abfrage-Editor v2 den Befehl COPY zum Laden von Daten. Der Befehl COPY wird im Fenster „Load local file“ (Lokale Datei laden) des Abfrage-Editors v2 generiert und ausgeführt. Er unterstützt viele Parameter, die für die COPY-Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Weitere Informationen über den Befehl COPY und seine Optionen zum Laden von Daten aus Amazon S3 finden Sie unter [COPY aus Amazon S3](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden. 

1. Wählen Sie ![\[Load\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Daten laden) aus.

1. Wählen Sie für **Data source** (Datenquelle) die Option **Load from local file** (Aus lokaler Datei laden) aus.

1. Wählen Sie **Durchsuchen** aus, um nach der Datei zu suchen, die die Daten für **Datei laden** enthält. Standardmäßig werden Dateien mit der Erweiterung `.csv`, `.avro`, `.parquet` und `.orc` angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

1. Wählen Sie das **File format** (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET und ORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen **File options** (Dateioptionen) auswählen. Sie können auch **Data is encrypted** (Daten sind verschlüsselt) auswählen, wenn die Daten verschlüsselt sind. Geben Sie dann den Amazon-Ressourcennamen (ARN) des KMS-Schlüssels ein, mit dem die Daten verschlüsselt werden.

   Wenn Sie CSV oder DELIMITER auswählen, können Sie auch das **Trennzeichen** auswählen und angeben, ob Sie die **Kopfzeilen ignorieren** möchten, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

1. (Optional) In den **Advanced settings** (erweiterten Einstellungen) finden Sie verschiedene **Data conversion parameters** (Datenkonvertierungsparameter) und **Load operations** (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

   Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter [Data conversion parameters](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) (Datenkonvertierungsparameter) und [Data load operations](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) (Datenladeoperationen) im *Amazon Redshift Database Developer Guide* (Datenbankleitfaden zu Amazon Redshift).

1. Wählen Sie **Weiter** aus.

1. Wählen Sie **Neue Tabelle laden** aus.

1. Bestätigen oder wählen Sie den Standort der **Zieltabelle**, einschließlich **Cluster oder Arbeitsgruppe**, **Datenbank** und **Schema**, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende **Tabelle** ein.

1. Wählen Sie **Tabelle erstellen** aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

   Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Um die Tabelle später zu löschen, führen Sie einen SQL-Befehl DROP TABLE aus. Weitere Informationen finden Sie unter [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

1. Wählen Sie **Load data** (Daten laden), um das Laden der Daten zu starten.

   Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie nun mithilfe von SQL Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, stellen Sie eine Systemansicht-Abfrage (STL\$1LOAD\$1ERRORS), um weitere Details zu erfahren. Informationen über Fehler beim Befehl COPY finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

   Die Vorlage für den Befehl COPY, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf (**Query history**) angezeigt. In der Vorlage für den Befehl COPY sind einige der verwendeten Parameter aufgeführt, die Vorlage kann jedoch nicht direkt in einer Registerkarte des Editors ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter [Abfrage- und Registerkarten-Verlauf anzeigen](query-editor-v2-history.md).

# Erstellen von Abfragen mit Amazon Redshift
<a name="query-editor-v2-query-run"></a>

Sie können eine Abfrage im Editor eingeben oder eine gespeicherte Abfrage aus der Liste **Queries** (Abfragen) auswählen und auf **Run** (Ausführen) gehen.

Beim Standardwert von **Limit 100** sind die Ergebnisse auf 100 Zeilen begrenzt. Sie können diese Option deaktivieren, damit eine größere Ergebnismenge zurückzugeben wird. Wenn Sie diese Option deaktivieren, können Sie die Option LIMIT in Ihre SQL-Anweisung aufnehmen, wenn Sie sehr große Ergebnismengen vermeiden möchten. Weitere Informationen finden Sie unter [ORDER BY-Klausel](https://docs.aws.amazon.com/redshift/latest/dg/r_ORDER_BY_clause.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

Um einen Abfrageplan im Ergebnisbereich anzuzeigen, aktivieren Sie **Explain** (Erläuterung). Aktivieren Sie **Explain graph** (Diagramm erläutern), damit die Ergebnisse auch eine grafische Darstellung des Erläuterungsplans anzeigen.

Um eine Abfrage im Ordner **Queries** (Abfragen) zu speichern, wählen Sie **Save** (Speichern) aus.

Bei einer erfolgreichen Abfrage wird eine Erfolgsmeldung angezeigt. Wenn die Abfrage Informationen zurückgibt, werden die Ergebnisse im Abschnitt **Results** (Ergebnisse) gezeigt. Wenn die Anzahl der Ergebnisse den Anzeigebereich überschreitet, erscheinen oben im Ergebnisbereich Zahlen. Sie können die Zahlen auswählen, um die Ergebnisse auf aufeinanderfolgenden Seiten anzuzeigen.

Sie können den Abschnitt **Result** (Ergebnis) für jede Spalte filtern und sortieren. Um Filterkriterien in die Ergebnisspaltenüberschrift einzugeben, bewegen Sie den Mauszeiger über die Spalte. Es erscheint ein Menü (![\[Filter menu\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/menu.png)), wo Sie Kriterien zum Filtern eingeben können.

Wenn die Abfrage einen Fehler enthält, zeigt der Abfrage-Editor v2 eine Fehlermeldung im Ergebnisbereich an. Die Nachricht enthält Informationen dazu, wie die Abfrage korrigiert werden kann.

Sie können die Ergebnisse Ihrer Abfrage exportieren oder kopieren, indem Sie das Kontextmenü (Rechtsklick) im Ergebnisbereich wie folgt verwenden:
+ Wählen Sie **Kopieren nach** und entweder **JSON** oder **CSV** aus, um die ausgewählten Zeilen in eine Datei herunterzuladen.
+ Wählen Sie **Zeilen kopieren** aus, um die ausgewählten Zeilen in die Zwischenablage zu kopieren.
+ Wählen Sie **Zeilen mit Kopfzeilen kopieren** aus, um die ausgewählten Zeilen mit den Spaltenüberschriften in die Zwischenablage zu kopieren.

Sie können auch **Exportieren** im Ergebnisbereich und dann entweder **JSON** oder **CSV** auswählen, um den gesamten Satz von Zeilenergebnissen in eine Datei herunterzuladen. Die Anzahl der Zeilen im Ergebnissatz kann durch die Option **Limit** oder die SQL-`limit`-Klausel in der Abfrage beschränkt werden. Die maximale Größe des heruntergeladenen Ergebnissatzes beträgt 5 MB.

Sie können auch die Tastenkombination Strg\$1C unter Windows oder Cmd\$1C unter macOS verwenden, um Daten von der aktuellen Ergebnisseite in die Zwischenablage zu kopieren. Wenn keine Zeilen ausgewählt sind, wird die Zelle mit Fokus in die Zwischenablage kopiert. Nachdem Zeilen ausgewählt sind, werden die ausgewählten Zeilen in die Zwischenablage kopiert.

Um eine neue Abfrage-Registerkarte hinzuzufügen, wählen Sie das Symbol ![\[New query tab\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png) und dann die Option **Editor** aus, die in der Zeile mit den Abfrage-Registerkarten angezeigt wird. Die Abfrage-Registerkarte verwendet eine `Isolated session` oder auch nicht. Bei einer isolierten Verbindung sind die Ergebnisse eines SQL-Befehls, z. B. das Erstellen einer temporären Tabelle, auf einer anderen Editor-Registerkarte nicht sichtbar. Wenn Sie eine Editor-Registerkarte im Abfrage-Editor v2 öffnen, ist die Standardeinstellung eine isolierte Sitzung. 

**Eine Abfrage ausführen**

1. Führen Sie im Abfragebereich einen der folgenden Schritte aus:
   + Geben Sie eine Abfrage ein.
   + Fügen Sie eine Abfrage ein, die Sie kopiert haben.
   + Wählen Sie den Ordner **Queries** (Abfragen), öffnen Sie das Kontextmenü (rechte Maustaste) über einer gespeicherten Abfrage und wählen Sie **Open query** (Abfrage öffnen) aus.

1. Vergewissern Sie sich, dass Sie den richtigen Wert für den **Cluster** oder die **Workgroup** (Arbeitsgruppe) und die **Database** (Datenbank) für das SQL ausgewählt haben, das Sie ausführen möchten. 

   Zunächst können Sie Ihren **Cluster** oder Ihre **Workgroup** (Arbeitsgruppe) in der Strukturansicht auswählen. Wählen Sie Ihre **Database** (Datenbank) auch in der Strukturansicht.

   Sie können **Cluster** oder **Arbeitsgruppe** sowie **Datenbank** innerhalb jeder Editor-Registerkarte mit dem Dropdown-Steuerelement neben der Kopfzeile **Isolierte Sitzung** der jeweiligen Editor-Registerkarte ändern.

   Für jede Editor-Registerkarte wählen Sie aus, ob der SQL-Befehl in einer **Isolated session** (Isolierte Sitzung) ausgeführt werden soll. Eine isolierte Sitzung hat eine eigene Verbindung mit einer Datenbank. Verwenden Sie diese, um SQL auszuführen, das von anderen Abfrage-Editor-Sitzungen isoliert ist. Weitere Informationen zu Verbindungen finden Sie unter [Öffnen des Abfrage-Editors v2](query-editor-v2-open.md).

1. Wählen Sie **Run** (Ausführen) aus.

   Der Bereich **Result** (Ergebnis) öffnet sich. Dort werden die Ergebnisse angezeigt.

**Den Erläuterungsplan für eine Abfrage anzeigen**

1. Wählen Sie die Abfrage aus.

1. Aktivieren Sie **Explain** (Erläutern).

   Standardmäßig ist das **Explain graph**(Erläuterungsdiagramm) ebenfalls aktiviert.

1. Klicken Sie auf **Ausführen**.

   Die Abfrage wird ausgeführt und der Erläuterungsplan wird im Bereich **Result** (Ergebnis) der Abfrage angezeigt.

Die Abfragen-Editor v2 unterstützt die folgenden Funktionen:
+ Sie können Abfragen mit mehreren SQL-Anweisungen auf einer Abfrageregisterkarte erstellen. Die Abfragen werden seriell ausgeführt und es werden mehrere Ergebnisregisterkarten für die einzelnen Abfragen geöffnet. 
+ Sie können Abfragen mit Sitzungsvariablen und temporären Tabellen erstellen.
+ Sie können Abfragen mit austauschbaren Parametern erstellen, die durch `${parameter}` bestimmt sind. Sie können Ihre SQL-Abfrage mit mehreren austauschbaren Parametern erstellen und denselben Parameter an mehreren Stellen in Ihrer SQL-Anweisung verwenden. 

  Wenn die Abfrage ausgeführt wird, wird ein Fenster angezeigt, in das Sie den Wert des Parameters eingeben. Jedes Mal, wenn Sie die Abfrage ausführen, wird das Fenster angezeigt, in dem Sie Ihre Parameterwerte eingeben können. 

  Ein Beispiel finden Sie unter [Beispiel: Umsatz größer als ein bestimmter Parameter](#query-editor-v2-example-sales-qtysold-greater-than-parameter). 
+ Abfragen werden automatisch versioniert. Sie können eine frühere Version einer auszuführenden Abfrage auswählen.
+ Sie müssen nicht warten, bis eine Abfrage abgeschlossen ist, bevor Sie mit dem Workflow fortfahren. Abfragen werden weiterhin ausgeführt, auch wenn Sie den Abfrage-Editor schließen.
+ Beim Erstellen von Abfragen wird das automatische Vervollständigen von Schema-, Tabellen- und Spaltennamen unterstützt.

Die SQL-Editor unterstützt die folgenden Funktionen:
+ Die in SQL verwendeten Anfangs- und Endklammern haben übereinstimmende Farben. Im Editor werden vertikale Linien angezeigt, um Ihnen beim Zuordnen von Klammern zu helfen.
+ Sie können Abschnitte Ihres SQL reduzieren und erweitern. 
+ Sie können Text in Ihrem SQL suchen und ersetzen.
+ Sie können Tastenkombinationen für verschiedene allgemeine Bearbeitungsaufgaben verwenden.
+ Im Editor werden SQL-Fehler hervorgehoben, um ein einfaches Auffinden von Problembereichen zu ermöglichen.

Eine Demo der Editorfunktionen finden Sie im folgenden Video. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/9JAq0yDs0YE/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/9JAq0yDs0YE)


## Abfragebeispiele
<a name="query-editor-v2-examples"></a>

Im Folgenden finden Sie Beschreibungen der verschiedenen Abfragetypen, die Sie ausführen können. 

Die in vielen dieser Abfragen verwendeten Daten stammen aus dem `tickit`-Beispielschema. Weitere Informationen zum Laden der `tickit`-Beispieldaten finden Sie unter [Laden von Daten in eine Datenbank](query-editor-v2-loading.md). Weitere Informationen über `tickit`-Beispieldaten finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*.

Wenn Sie diese Beispielabfragen ausführen, bestätigen Sie, dass Sie die richtige Datenbank im Editor ausgewählt haben, z. B. `sample_data_dev`.

**Topics**
+ [Beispiel: Setzen von Sitzungsvariablen](#query-editor-v2-example-set-session-variable)
+ [Beispiel: Top-Veranstaltung nach Gesamtumsatz](#query-editor-v2-example-top-event-sales)
+ [Beispiel: Umsatz größer als ein bestimmter Parameter](#query-editor-v2-example-sales-qtysold-greater-than-parameter)
+ [Beispiel: Erstellen einer temporären Tabelle](#query-editor-v2-example-create-temporary-table)
+ [Beispiel: Auswahl aus einer temporären Tabelle](#query-editor-v2-example-select-from-temporary-table)

### Beispiel: Setzen von Sitzungsvariablen
<a name="query-editor-v2-example-set-session-variable"></a>

Mit dem folgenden Befehl wird der `search_path`-Server-Konfigurationsparameter für die Sitzung auf *public* (öffentlich) gesetzt. Weitere Informationen finden Sie unter [SET](https://docs.aws.amazon.com/redshift/latest/dg/r_SET.html) und [search\$1path](https://docs.aws.amazon.com/redshift/latest/dg/r_search_path.html)*im Datenbankentwicklerhandbuch zu Amazon Redshift*. 

```
set search_path to public;
```

### Beispiel: Top-Veranstaltung nach Gesamtumsatz
<a name="query-editor-v2-example-top-event-sales"></a>

Die folgende Abfrage findet die Veranstaltung mit dem größten Umsatz. 

```
select eventname, count(salesid) totalorders, sum(pricepaid) totalsales
from sales, event
where sales.eventid=event.eventid
group by eventname
order by 3;
```

Es folgt eine unvollständige Liste der Ergebnisse.

```
eventname           totalorders       totalsales
White Christmas         20              9352
Joshua Radin            38             23469
Beach Boys              58             30383
Linda Ronstadt          56             35043
Rascal Flatts           76             38214
Billy Idol              67             40101
Stephenie Meyer         72             41509
Indigo Girls            57             45399
...
```

### Beispiel: Umsatz größer als ein bestimmter Parameter
<a name="query-editor-v2-example-sales-qtysold-greater-than-parameter"></a>

Die folgende Abfrage findet Umsätze, bei denen die verkaufte Menge größer ist als der durch `${numberoforders}` bestimmte Parameter. Wenn der Parameterwert `7` lautet, hat das Ergebnis 60 Zeilen. Wenn Sie die Abfrage ausführen, zeigt der Abfrage-Editor v2 das Fenster **Run query form** (Abfrageformular ausführen) an, auf dem der Wert von Parametern in der SQL-Anweisung gesammelt wird. 

```
select salesid, qtysold
from sales 
where qtysold > ${numberoforders}
order by 2;
```

Es folgt eine unvollständige Liste der Ergebnisse.

```
salesid	qtysold
20005	8
21279	8
130232	8
42737	8
74681	8
67103	8
105533	8
91620	8
121552	8
...
```

### Beispiel: Erstellen einer temporären Tabelle
<a name="query-editor-v2-example-create-temporary-table"></a>

Die folgende Anweisung erstellt die temporäre Tabelle *eventsalestemp* indem Informationen aus den Tabellen *sales* und *events* ausgewählt werden. 

```
create temporary table eventsalestemp as
select eventname, count(salesid) totalorders, sum(pricepaid) totalsales
from sales, event
where sales.eventid=event.eventid
group by eventname;
```

### Beispiel: Auswahl aus einer temporären Tabelle
<a name="query-editor-v2-example-select-from-temporary-table"></a>

Die folgende Anweisung wählt Ereignisse, Gesamtaufträge und Gesamtumsatz aus der temporären Tabelle *eventsalestemp*, geordnet nach der Gesamtzahl der Bestellungen. 

```
select eventname,  totalorders,  totalsales
from eventsalestemp
order by 2;
```

Es folgt eine unvollständige Liste der Ergebnisse.

```
eventname          totalorders   totalsales
White Christmas        20          9352
Joshua Radin           38         23469
Martina McBride        50         52932
Linda Ronstadt         56         35043
Indigo Girls           57         45399
Beach Boys             58         30383
...
```

# Notizbücher in Amazon Redshift
<a name="query-editor-v2-notebooks"></a>

Mithilfe von Notebooks können Sie mehrere SQL-Abfragen in einem einzigen Dokument organisieren, kommentieren und freigeben. Einem Notebook lassen sich mehrere SQL-Abfrage- und Markdown-Zellen hinzufügen. Notebooks bieten die Möglichkeit, Abfragen und Erklärungen im Zusammenhang mit einer Datenanalyse unter Verwendung mehrerer Abfrage- und Markdown-Zellen in einem einzigen Dokument zu gruppieren. Sie können Text hinzufügen und das Erscheinungsbild mithilfe der Markdown-Syntax formatieren, um Kontext und zusätzliche Informationen für Ihre Datenanalyse bereitzustellen. Sie können Ihre Notebooks für Teammitglieder freigeben.

Für die Verwendung von Notebooks müssen Sie Ihrem IAM-Prinzipal (einem IAM-Benutzer oder einer IAM-Rolle) die Berechtigung für Notebooks hinzufügen. Als bewährte Methode empfehlen wir, einer IAM-Rolle Berechtigungsrichtlinien anzufügen und sie dann nach Bedarf Benutzern und Gruppen zuzuweisen. Weitere Informationen finden Sie unter [Identity and Access Management in Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/redshift-iam-authentication-access-control.html). Sie können die Berechtigung zu einer der von Abfrage-Editor v2 verwalteten Richtlinien hinzufügen. Weitere Informationen finden Sie unter [Zugreifen auf den Abfrage-Editor v2](query-editor-v2-getting-started.md#query-editor-v2-configure).

Sie können alle Zellen eines Notebooks nacheinander ausführen. Die SQL-Abfragezelle eines Notebooks verfügt über fast dieselben Funktionen wie eine Registerkarte im Abfrage-Editor. Weitere Informationen finden Sie unter [Erstellen von Abfragen mit Amazon Redshift](query-editor-v2-query-run.md). Im Folgenden sind die Unterschiede zwischen einer Registerkarte im Abfrage-Editor und einer SQL-Zelle in einem Notebook aufgeführt.
+ Es gibt kein Steuerelement zur Ausführung von `Explain` in einer SQL-Anweisung in einem Notebook.
+ Sie können nur ein Diagramm pro SQL-Zelle in einem Notebook erstellen.

Sie können Notebooks in Dateien, die mit Abfrage-Editor v2 erstellt wurden, exportieren und importieren. Die Dateierweiterung lautet `.ipynb` und die Dateigröße kann maximal 5 MB betragen. Die SQL- und Markdown-Zellen werden in der Datei gespeichert. Ein Cluster oder eine Arbeitsgruppe und eine Datenbank werden nicht im exportierten Notebook gespeichert. Wenn Sie ein importiertes Notebook öffnen, wählen Sie den Cluster oder die Arbeitsgruppe und die Datenbank aus, in dem/denen es ausgeführt werden soll. Nach Ausführung von SQL-Zellen können Sie auf der Registerkarte „Results“ (Ergebnisse) auswählen, ob die aktuelle Ergebnisseite als Diagramm angezeigt werden soll. Die Ergebnismenge einer Abfrage wird nicht im Notebook gespeichert.

# Ein Notizbuch erstellen
<a name="query-editor-v2-notebooks-create"></a>

Sie können ein Notizbuch erstellen, um mehrere SQL-Abfragen in einem einzigen Dokument zu organisieren, zu kommentieren und gemeinsam zu nutzen. 

**So erstellen Sie ein Notebook**

1. Wählen Sie im Navigatormenü das Editor-Symbol (![\[Horizontal lines representing redacted or censored text.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-align-left.png)).

1. Wählen Sie das Plussymbol (![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png)) und dann **Notizbuch**.

   Standardmäßig wird eine SQL-Abfragezelle im Notebook angezeigt.

1. Führen Sie in der SQL-Abfragezelle einen der folgenden Schritte aus:
   + Geben Sie eine Abfrage ein.
   + Fügen Sie eine Abfrage ein, die Sie kopiert haben.

1. (Optional) Wählen Sie das Plussymbol (![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png)) und anschließend Markdown, um eine **Markdown-Zelle** hinzuzufügen, in der Sie beschreibenden oder erklärenden Text mithilfe der Standard-Markdown-Syntax angeben können. 

1. (Optional) Wählen Sie das Plussymbol (![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png)) und anschließend SQL, um eine **SQL-Zelle einzufügen**. 

Sie können Notizbücher mit dem Stiftsymbol (![\[Pencil icon representing an editing or writing function.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-edit.png)) umbenennen.

Über das Menüsymbol (![\[Three dots arranged horizontally, representing an ellipsis or "more" menu icon.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-more.png)) können Sie auch die folgenden Operationen an einem Notizbuch ausführen:
+ ![\[Share\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-share.png)**Share with my team** (Für mein Team freigeben) – Zum Freigeben des Notebooks für Ihr Team gemäß den Tags. Um ein Notebook für Ihr Team freizugeben, müssen Sie sicherstellen, dass das Prinzipal-Tag `sqlworkbench-team` auf denselben Wert wie bei den übrigen Teammitgliedern in Ihrem Konto eingestellt ist. Beispielsweise könnte ein Administrator den Wert für jeden in der Buchhaltungsabteilung auf `accounting-team` einstellen. Ein Beispiel finden Sie unter [Für die Verwendung des Abfrage-Editors v2 erforderliche Berechtigungen](redshift-iam-access-control-identity-based.md#redshift-policy-resources.required-permissions.query-editor-v2).
+ ![\[Export\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-export.png)**Export** (Exportieren) – Zum Exportieren des Notebooks in eine lokale Datei mit der Erweiterung `.ipynb`.
+ ![\[Import query\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-import.png)**Abfrage importieren** — Um eine Abfrage aus einer lokalen Datei in eine Zelle im Notizbuch zu importieren. Sie können Dateien mit `.txt` Erweiterungen `.sql` und Erweiterungen importieren.
+  ![\[Save\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-floppy-disk.png)**Save version** (Version speichern) – Zum Erstellen einer Version des Notebooks. Wenn Sie verschiedene Versionen eines Notebooks anzeigen möchten, navigieren Sie zu Ihren gespeicherten Notebooks und öffnen Sie **Version history** (Versionsverlauf).
+  ![\[Duplicate\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-duplicate.png)**Duplicate** (Duplizieren) – Zum Erstellen einer Kopie des Notebooks und Öffnen dieser Kopie in einer neuen Notebook-Registerkarte. 
+  ![\[Shortcuts\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-key-command.png)**Shortcuts** (Tastenkombinationen) – Zum Anzeigen der verfügbaren Tastenkombinationen beim Erstellen eines Notebooks. 

# In Notizbücher importieren
<a name="query-editor-v2-notebooks-import"></a>

Sie können ein ganzes Notizbuch oder einzelne SQL-Zellen in ein Query Editor v2-Notizbuch importieren.

Um ein ganzes Notizbuch aus einer lokalen Datei in **Meine Notizbücher** zu importieren, wählen Sie „![\[Import\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-import.png)**Importieren**“ und anschließend „**Notizbuch importieren**“. Navigiere zu der `.ipynb` Datei, die dein Notizbuch enthält. Das Notebook wird in den aktuell geöffneten Notebook-Ordner importiert. Sie können das Notebook anschließend im Notebook-Editor öffnen.

Um eine Abfrage aus einer lokalen Datei in eine SQL-Zelle in einem Notizbuch zu importieren, wählen Sie ![\[Import\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-import.png) **Import** und anschließend **Abfrage importieren** aus. Folgen Sie im Fenster „**Abfrage importieren**“ den Anweisungen auf dem Bildschirm, um Dateien und Ordner auszuwählen, die als Abfrage in ein neues Notizbuch oder ein vorhandenes Notizbuch importiert werden können. Die Dateien müssen die Erweiterung `.sql` oder haben`.txt`. Jede Abfrage kann bis zu 10.000 Zeichen lang sein. Wenn Sie einem vorhandenen Notizbuch etwas hinzufügen, wählen Sie aus allen Notizbüchern in Ihrer Liste **Gespeicherte Notizbücher aus, welches Notizbuch** Sie auswählen. Die importierten Abfragen werden als SQL-Zellen am Ende des Notizbuchs hinzugefügt. Wenn Sie ein neues Notizbuch auswählen, wählen Sie den Namen des Notizbuchs und es wird im aktuell geöffneten Ordner für gespeicherte Notizbücher erstellt. 

**Anmerkung**  
Wenn Sie mit der TextEdit Anwendung `.sql` Dateien auf macOS erstellen, tritt möglicherweise ein Problem auf, bei dem der Datei eine zusätzliche versteckte Erweiterung hinzugefügt wird. Beispielsweise TextEdit kann eine Datei mit dem Namen `Test.sql` erstellt in gespeichert werden`Test.sql.rtf`. Der Abfrage-Editor v2 unterstützt keine Dateien mit der `.rtf` Erweiterung. Wenn Sie jedoch eine `.sql` Datei erstellen TextEdit und sie als Klartextdatei speichern, hat die Datei eine zusätzliche versteckte `.txt` Erweiterung. Beispielsweise `Text.sql` könnte eine Datei mit dem Namen gespeichert werden als`Text.sql.txt`. Im Gegensatz zur `.rtf` Erweiterung unterstützt der Abfrage-Editor v2 Dateien mit dieser `.txt` Erweiterung und `Text.sql.txt` wird daher beim Import von Abfragen in Notizbücher unterstützt.

Eine Demo zu Notebooks finden Sie im folgenden Video. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/GNahyu7j98M/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/GNahyu7j98M)


# Abfragen der AWS Glue Data Catalog
<a name="query-editor-v2-glue"></a>

Sie können den Abfrage-Editor v2 verwenden, um in Ihrem Katalog katalogisierte Daten abzufragen, AWS Glue Data Catalog indem Sie bestimmte SQL-Befehle verwenden und die in diesem Abschnitt beschriebenen Berechtigungen gewähren. Standardmäßig ist der  AWS Glue Data Catalog  als Datenbank des Abfrage-Editors v2 mit dem Namen `awsdatacatalog` aufgeführt. Das Abfragen von AWS Glue Data Catalog  ist nicht in allen AWS-Regionen von Amazon Redshift verfügbar. Verwenden Sie den Befehl SHOW, um festzustellen, ob diese Funktion verfügbar ist. Weitere Informationen zu finden Sie AWS Glue unter [Was ist AWS Glue?](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) im *AWS Glue Entwicklerhandbuch*.

**Anmerkung**  
Das Abfragen von AWS Glue Data Catalog wird nur in Amazon RA3 Redshift-Knotenclustern und Amazon Redshift Serverless unterstützt.

Mit den folgenden SQL-Befehlen können Sie Ihr Data Warehouse konfigurieren und die katalogisierten AWS Glue Datenbankobjekte anzeigen:
+ SHOW – um anzuzeigen, ob `awsdatacatalog` für das aktuell verbundene Data Warehouse gemountet ist. Wenn Sie zum Beispiel den Parameterwert `data_catalog_auto_mount` anzeigen möchten, führen Sie den folgenden Befehl aus:

  ```
  SHOW data_catalog_auto_mount;
  ```

  Weitere Informationen finden Sie unter [SHOW](https://docs.aws.amazon.com/redshift/latest/dg/r_SHOW.html) im *Entwicklerhandbuch für Amazon Redshift Database*.
+ ALTER SYSTEM – um die Konfiguration von `data_catalog_auto_mount` auf Systemebene zu ändern. Wenn Sie zum Beispiel den Parameterwert `data_catalog_auto_mount` in `on` ändern möchten, führen Sie den folgenden Befehl aus:

  ```
  ALTER SYSTEM SET data_catalog_auto_mount = on;
  ```

  Die Änderung wird wirksam, wenn ein bereitgestellter Cluster neu gestartet wird oder eine Serverless-Arbeitsgruppe automatisch angehalten und fortgesetzt wird. Weitere Informationen finden Sie unter [ALTER SYSTEM](https://docs.aws.amazon.com/redshift/latest/dg/r_ALTER_SYSTEM.html) im *Entwicklerhandbuch für Amazon Redshift Database*.
+ SHOW SCHEMAS – zeigt eine Liste von Schemata an. Die Schemas in der genannten Datenbank stellen die AWS Glue Datenbanken `awsdatacatalog` dar, die in der katalogisiert sind. AWS Glue Data Catalog Wenn Sie diese Schemata beispielsweise anzeigen möchten, führen Sie folgenden Befehl aus:

  ```
  SHOW SCHEMAS FROM DATABASE awsdatacatalog;
  ```

  Weitere Informationen finden Sie unter [SHOW SCHEMAS](https://docs.aws.amazon.com/redshift/latest/dg/r_SHOW_SCHEMAS.html) im *Entwicklerhandbuch für Amazon Redshift Database*.
+ SHOW TABLES – zeigt eine Liste von Tabellen in einem Schema an. Um beispielsweise die Tabellen in der genannten AWS Glue Data Catalog Datenbank anzuzeigen, die sich im Schema `myglue` Run befinden`awsdatacatalog`, gehen Sie wie folgt vor:

  ```
  SHOW TABLES FROM SCHEMA awsdatacatalog.myschema;
  ```

  Weitere Informationen finden Sie unter [SHOW TABLES](https://docs.aws.amazon.com/redshift/latest/dg/r_SHOW_TABLES.html) im *Entwicklerhandbuch für Amazon Redshift Database*.
+ SHOW COLUMNS – zeigt eine Liste von Spalten in einer Tabelle an. Um beispielsweise die Spalten in der genannten AWS Glue Data Catalog Datenbank anzuzeigen`awsdatacatalog`, die sich in Schema `myglue` und Table `mytable` Run befinden:

  ```
  SHOW COLUMNS FROM TABLE awsdatacatalog.myglue.mytable;
  ```

  Weitere Informationen finden Sie unter [SHOW COLUMNS](https://docs.aws.amazon.com/redshift/latest/dg/r_SHOW_COLUMNS.html) im *Entwicklerhandbuch für Amazon Redshift Database*.

**Um Ihrem IAM-Benutzer oder Ihrer IAM-Rolle die Berechtigung zur Abfrage von zu gewähren, AWS Glue Data Catalog**

1. Stellen Sie in der Strukturansicht mithilfe der Authentifizierungsmethode **Datenbankbenutzername und -passwort** eine Verbindung mit Ihrer ursprünglichen Datenbank in Ihrem bereitgestellten Cluster oder Ihrer Serverless-Arbeitsgruppe her. Verwenden Sie beispielsweise für eine Verbindung mit der Datenbank `dev` den Administratorbenutzernamen und das -passwort, die Sie bei der Erstellung des Clusters oder der Arbeitsgruppe verwendet haben.

1. Führen Sie auf einer Registerkarte des Editors die folgende SQL-Anweisung aus, um einem IAM-Benutzer Zugriff auf den AWS Glue Data Catalog zu gewähren.

   ```
   GRANT USAGE ON DATABASE awsdatacatalog to "IAM:myIAMUser"
   ```

   Wo *IAM:myIAMUser* befindet sich ein IAM-Benutzer, dem Sie Nutzungsrechte gewähren möchten. AWS Glue Data Catalog Alternativ können Sie einer IAM-Rolle *IAMR:myIAMRole* Nutzungsrechte gewähren.

1. Bearbeiten oder löschen Sie in der Strukturansicht die Verbindung zu dem Cluster oder der Arbeitsgruppe, den/die Sie zuvor erstellt haben. Stellen Sie auf eine der folgenden Arten eine Verbindung mit Ihrem Cluster oder Ihrer Arbeitsgruppe her:
   + Wenn Sie von einem Cluster aus auf die Datenbank von `awsdatacatalog` zugreifen möchten, müssen Sie die Authentifizierungsmethode **Temporäre Anmeldeinformationen unter Verwendung Ihrer IAM-Identität** verwenden. Weitere Informationen zu dieser Authentifizierungsmethode finden Sie unter [Herstellen einer Verbindung mit einer Amazon-Redshift-Datenbank](query-editor-v2-connecting.md). Möglicherweise muss der Administrator für Ihren Abfrage-Editor v2 die **Kontoeinstellungen** für das Konto konfigurieren, damit diese Authentifizierungsmethode im Verbindungsfenster angezeigt wird.
   + Wenn Sie von einer Arbeitsgruppe aus auf die Datenbank von `awsdatacatalog` zugreifen möchten, müssen Sie die Authentifizierungsmethode **Verbundbenutzer** verwenden. Weitere Informationen zu dieser Authentifizierungsmethode finden Sie unter [Herstellen einer Verbindung mit einer Amazon-Redshift-Datenbank](query-editor-v2-connecting.md).

1. Mit der erteilten Berechtigung können Sie Ihre IAM-Identität verwenden, um SQL-Abfragen für Ihren AWS Glue Data Catalog auszuführen.

Nach Herstellung der Verbindung können Sie den Abfrage-Editor v2 verwenden, um Daten abzufragen, die im AWS Glue Data Catalog katalogisiert sind. Wählen Sie in der Strukturansicht des Abfrage-Editors v2 den Cluster oder die Arbeitsgruppe und die Datenbank `awsdatacatalog` aus. Vergewissern Sie sich, dass im Editor- oder Notebook-Bereich der richtige Cluster bzw. die richtige Arbeitsgruppe ausgewählt ist. Bei der ausgewählten Datenbank sollte es sich um die ursprüngliche Amazon-Redshift-Datenbank handeln, beispielsweise `dev`. Informationen zum Erstellen von Abfragen finden Sie unter [Erstellen von Abfragen mit Amazon Redshift](query-editor-v2-query-run.md) und [Notizbücher in Amazon RedshiftNotebooks](query-editor-v2-notebooks.md). Die Datenbank namens `awsdatacatalog` ist für den Verweis auf die externe Data-Catalog-Datenbank in Ihrem Konto reserviert. Es sind nur schreibgeschützte Abfragen für die Datenbank `awsdatacatalog` möglich. Verwenden Sie für den Verweis auf die Tabelle in Ihrer SELECT-Anweisung eine dreiteilige Notation. Dabei ist der erste Teil der Datenbankname, der zweite Teil der AWS Glue Datenbankname und der dritte Teil der AWS Glue Tabellenname.

```
SELECT * FROM awsdatacatalog.<aws-glue-db-name>.<aws-glue-table-name>;
```

Sie können verschiedene Szenarien ausführen, in denen die AWS Glue Data Catalog Daten gelesen und Amazon Redshift Redshift-Tabellen gefüllt werden.

Das folgende SQL-Beispiel verbindet zwei Tabellen, die in definiert sind. AWS Glue

```
SELECT pn.emp_id, alias, role, project_name 
FROM "awsdatacatalog"."empl_db"."project_name_table" pn, 
"awsdatacatalog"."empl_db"."project_alias_table" pa
WHERE pn.emp_id = pa.emp_id;
```

Das folgende SQL-Beispiel erstellt eine Amazon Redshift Redshift-Tabelle und füllt sie mit Daten aus einer Verknüpfung von zwei AWS Glue Tabellen.

```
CREATE TABLE dev.public.glue AS
SELECT pn.emp_id, alias, role, project_name 
FROM "awsdatacatalog"."empl_db"."project_name_table" pn, 
"awsdatacatalog"."empl_db"."project_alias_table" pa
WHERE pn.emp_id = pa.emp_id;
```

## Abfragen von Amazon S3 S3-Tabellen (Vorschau)
<a name="query-editor-v2-glue-s3-tables"></a>

Sie können den Abfrage-Editor v2 verwenden, um Daten in Amazon S3Table-Katalogen abzufragen, die auf dem installiert sind. AWS Glue Data Catalog Amazon S3 S3-Tabellenkataloge werden AWS Glue Data Catalog bei der Erstellung bereitgestellt und erscheinen automatisch als externe Datenbanken auf allen bereitgestellten Clustern und serverlosen Arbeitsgruppen in demselben Konto AWS-Region . Weitere Informationen zum Zugriff auf Amazon S3 S3-Tabellen mit Amazon Redshift finden Sie unter [Zugreifen Amazon S3 S3-Tabellen mit Amazon Redshift](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-redshift.html) im Amazon Simple Storage Service-Benutzerhandbuch.

# Abfragen eines Data Lake
<a name="query-editor-v2-querying-data-lake"></a>

Sie können Daten in einem Amazon S3 Data Lake abfragen, indem Sie die Aufgaben in diesem Tutorial ausführen. Zuerst erstellen Sie ein externes Schema, um auf die externe Datenbank im [AWS Glue Data Catalog](https://docs.aws.amazon.com/glue/latest/dg/components-overview.html#data-catalog-intro) zu verweisen. Anschließend können Sie Daten im Amazon S3-Data Lake abfragen.

## Demo: Einen Data Lake abfragen
<a name="query-editor-v2-example-data-lake-demo"></a>

Weitere Informationen zum Abfragen eines Data Lake finden Sie im folgenden Video.

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/-pyy0qNmEKo/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/-pyy0qNmEKo)


## Voraussetzungen
<a name="query-editor-v2-querying-data-lake-prerequisites"></a>

Bevor Sie mit Ihrem Data Lake in Query Editor v2 arbeiten, vergewissern Sie sich, dass in Ihrer Amazon-Redshift-Umgebung Folgendes eingerichtet wurde:
+ Crawlen Sie Ihre Amazon S3 S3-Daten mithilfe AWS Glue und aktivieren Sie Ihren Datenkatalog für AWS Lake Formation.
+ Erstellen Sie eine IAM-Rolle für Amazon Redshift mithilfe des AWS Glue aktivierten Datenkatalogs für. AWS Lake Formation Einzelheiten zu diesem Verfahren finden Sie unter [So erstellen Sie eine IAM-Rolle für Amazon Redshift mit einem AWS Glue Data Catalog aktivierten](https://docs.aws.amazon.com/redshift/latest/dg/c-getting-started-using-spectrum-create-role.html#spectrum-get-stared-create-role-lake-formation) für. AWS Lake Formation Weitere Informationen zur Verwendung von Redshift Spectrum und Lake Formation finden Sie unter [Verwenden von Redshift Spectrum](https://docs.aws.amazon.com/redshift/latest/dg/spectrum-lake-formation.html) mit. AWS Lake Formation
+ Gewähren von SELECT-Berechtigungen für die Tabelle, um diese in der Lake-Formation-Datenbank abzufragen. Weitere Informationen zu diesem Verfahren finden Sie unter [So gewähren Sie SELECT-Berechtigungen für eine Tabelle, um diese in der Lake-Formation-Datenbank abzufragen](https://docs.aws.amazon.com/redshift/latest/dg/c-getting-started-using-spectrum-create-role.html#spectrum-get-started-grant-lake-formation-table).

  Sie können in der Lake Formation Formation-Konsole (https://console.aws.amazon.com/lakeformation/) im Bereich **Berechtigungen** auf der Seite **Data Lake-Berechtigungen** überprüfen, ob die IAM-Rolle, die AWS Glue Datenbank und die Tabellen über die richtigen Berechtigungen verfügen.
+ Bestätigung, dass Ihr verbundener Benutzer berechtigt ist, Schemata in der Amazon-Redshift-Datenbank zu erstellen und auf Daten in Ihrem Data Lake zuzugreifen. Wenn Sie in Query Editor v2 eine Verbindung zu einer Datenbank herstellen, wählen Sie eine Authentifizierungsmethode aus, die Anmeldeinformationen beinhaltet. Dabei kann es sich um einen Datenbankbenutzer oder einen IAM-Benutzer handeln. Der verbundene Benutzer muss über die richtigen Berechtigungen und Datenbankrechte verfügen, wie z. B. `superuser`. Der `admin`-Benutzer von Amazon Redshift, der den Cluster oder die Arbeitsgruppe erstellt hat, verfügt über `superuser`-Berechtigungen und kann Schemata erstellen und die Redshift-Datenbank verwalten. Weitere Informationen zum Herstellen einer Verbindung zu einer Datenbank mit Query Editor v2 finden Sie unter [Herstellen einer Verbindung mit einer Amazon-Redshift-Datenbank](query-editor-v2-connecting.md).

## Erstellen eines externen Schemas
<a name="query-editor-v2-create-external-schema"></a>

Um Daten in einem Amazon S3 Data Lake abzufragen, erstellen Sie zunächst ein externes Schema. Ein externes Schema verweist auf eine Datenbank in einem externen [AWS Glue Data Catalog](https://docs.aws.amazon.com/glue/latest/dg/components-overview.html#data-catalog-intro).

1. Wählen Sie in der **Editor**-Ansicht von Query Editor v2 die Option ![\[Create\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Erstellen** und dann **Schema** aus.

1. Geben Sie einen **Schema name** (Schemennamen) ein.

1. Wählen Sie unter **Schematyp** die Option **Extern** aus.

1. In den **Datenkatalogdetails** ist die **Region** standardmäßig der Ort, an AWS-Region dem sich Ihre Redshift-Datenbank befindet.

1. Wählen Sie die **AWS Glue Datenbank** aus, der das externe Schema zugeordnet werden soll und die Verweise auf die AWS Glue Tabellen enthält.

1. Wählen Sie eine **IAM-Rolle** für Amazon Redshift aus, die über die erforderlichen Berechtigungen zum Abfragen von Daten in Amazon S3 verfügt.

1. Wählen Sie optional eine **IAM-Rolle** aus, die über die Berechtigung für den Datenkatalog verfügt.

1. Wählen Sie **Create schema** (Schema erstellen) aus.

   Das Schema wird in der Strukturansicht unter Ihrer Datenbank angezeigt.

Wenn Sie beim Erstellen des Schemas die Fehlermeldung „Berechtigung verweigert“ für Ihre Datenbank erhalten, überprüfen Sie, ob der verbundene Benutzer über die Datenbankberechtigung zum Erstellen eines Schemas verfügt.

## Abfragen Ihrer Daten in Amazon S3-Data Lake
<a name="query-editor-v2-query-data-lake"></a>

Verwenden Sie das Schema, das Sie im vorherigen Verfahren erstellt haben. 

1. Wählen Sie in der Strukturansicht das Schema aus.

1. Um eine Tabellendefinition anzuzeigen, wählen Sie eine Tabelle aus. Die Tabellenspalten und Datentypen werden angezeigt.

1. Um eine Tabelle abzufragen, wählen Sie die Tabelle aus und wählen Sie im Kontextmenü (Rechtsklickmenü) **Tabelle auswählen** aus, um eine Abfrage zu generieren.

1. Führen Sie die Abfrage im **Editor** aus.

   Das folgende SQL-Beispiel wurde vom Abfrage-Editor v2 generiert, um alle Zeilen in der AWS Glue Tabelle mit dem Namen abzufragen`flightscsv`. In der Ausgabe sind die Spalten und Zeilen der Einfachheit halber verkürzt.

   ```
   SELECT * FROM "dev"."mydatalake_schema"."flightscsv";
                           
   year    quarter   month   dom  day_of_week   fl_date    unique_carrier  airline_id   carrier   tail_num   fl_num		
   2016    4         10      19   3             10/19/16   OO              20304        OO         N753SK    3086	 
   2016    4         10      19   3             10/19/16   OO              20304        OO         N753SK    3086	
   2016    4         10      19   3             10/19/16   OO              20304        OO         N778SK    3087		
   2016	4         10      19   3             10/19/16   OO              20304        OO         N778SK    3087	
   ...
   ```

# Datashares
<a name="query-editor-v2-datashare-using"></a>

Sie können einen Datashare erstellen, damit Benutzer in einem anderen Cluster die Daten abfragen können. Der Cluster mit den Daten, die Sie freigeben möchten, wird als *Produzenten*-Cluster bezeichnet. Sie erstellen einen Datashare im Produzenten-Cluster für die Datenbankobjekte, die Sie freigeben möchten. Sie können Schemas, Tabellen, Ansichten und benutzerdefinierte SQL-Funktionen () gemeinsam nutzen. UDFs Der Cluster, für den Sie die Daten freigeben möchten, wird als *Konsumenten*-Cluster bezeichnet. Im Konsumenten-Cluster erstellen Sie eine Datenbank aus dem Datashare. Anschließend können Benutzer im Konsumenten-Cluster die Daten abfragen. Weitere Informationen finden Sie unter [Erste Schritte mit der gemeinsamen Nutzung von Daten](https://docs.aws.amazon.com/redshift/latest/dg/getting-started-datasharing.html) im *Amazon-Redshift-Datenbankentwicklerhandbuch*.

# Erstellen von Datashares
<a name="query-editor-v2-create-datashare"></a>

Sie erstellen einen Datashare im Cluster, den Sie als Produzenten-Cluster verwenden möchten. Weitere Informationen zu den Überlegungen im Hinblick auf Datashares finden Sie unter [Überlegungen zur Freigabe von Daten in Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/datashare-considerations.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

1. Wählen Sie die zu verwendende Datenbank im Produzenten-Cluster aus.

1. Erstellen Sie einen Datashare. Zum Beispiel:

   ```
   create datashare mysource;
   ```

1. Legen Sie Berechtigungen für den Datashare fest. Zum Beispiel:

   ```
   grant alter, share on datashare mysource to admin;
   ```

1. Legen Sie Berechtigungen für die Datenbankobjekte fest, die Sie freigeben möchten. Zum Beispiel:

   ```
   alter datashare mysource add schema public;
   ```

   ```
   alter datashare mysource add table public.event;
   ```

1. Legen Sie Berechtigungen für den Konsumenten-Cluster-Namespace für den Zugriff auf den Datashare fest. Zum Beispiel:

   ```
   grant usage on datashare mysource to namespace '2b12345-1234-5678-9012-bb1234567890';
   ```

# Anzeigen von Datashares
<a name="query-editor-v2-show-datashare"></a>

Sie können die Datashares, die Sie im Produzenten-Cluster erstellt haben, anzeigen. 

1. Wählen Sie den Produzenten-Cluster aus.

1. Zeigen Sie die Datashares an. Zum Beispiel:

   ```
   show datashares;
   ```

   ```
   share_name	share_owner	source_database		consumer_database	share_type	createdate	is_publicaccessible	share_acl	producer_account	producer_namespace
   test_datashare	100		db_producer		NULL			OUTBOUND	2/15/2022		FALSE		admin		123456789012		p1234567-8765-4321-p10987654321
   ```

# Erstellen der Konsumentendatenbank
<a name="query-editor-v2-datashare-consumer"></a>

Im Konsumenten-Cluster erstellen Sie eine Datenbank aus dem Datashare. Diese Schritte beschreiben, wie Sie Daten zwischen zwei Clustern im selben Konto freigeben. Informationen zur gemeinsamen Nutzung von Daten zwischen AWS Konten finden Sie unter [AWS Kontenübergreifendes Teilen von Daten](https://docs.aws.amazon.com/redshift/latest/dg/across-account.html) im *Amazon Redshift Database Developer Guide*.

Sie können SQL-Befehle oder die Baumansicht des Abfrage-Editors v2 verwenden, um die Datenbank zu erstellen.

**So verwenden Sie SQL**

1. Erstellen Sie eine Datenbank aus dem Datashare für Ihr Konto und den Namespace des Produzenten-Clusters. Zum Beispiel:

   ```
   create database share_db from datashare mysource of account '123456789012' namespace 'p1234567-8765-4321-p10987654321'; 
   ```

1. Legen Sie Berechtigungen fest, damit Benutzer auf die Datenbank und das Schema zugreifen können. Zum Beispiel:

   ```
   grant usage on database share_db to usernames;
   ```

   ```
   grant usage on schema public to usernames;
   ```

**So verwenden Sie die Baumansicht des Abfrage-Editors v2**

1. Wählen Sie ![\[Plus sign icon inside a circle, indicating an add or create action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-add.png)**Create** (Erstellen) aus und danach **Database** (Datenbank).

1. Geben Sie einen **Database name** (Datenbanknamen) ein.

1. (Optional) Wählen Sie **Users and groups** (Benutzer und Gruppen) und dort einen **Database user** (Datenbankbenutzer) aus.

1. Klicken Sie auf **Create using a datashare** (Mit einem Datashare erstellen).

1. Wählen Sie den Datashare aus.

1. Wählen Sie **Datenbank erstellen** aus.

   Die neue![\[datashare\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-datashare.png)**Datashare**-Datenbank wird in der Baumansicht des Abfrage-Editors v2 angezeigt.

1. Legen Sie Berechtigungen fest, damit Benutzer auf die Datenbank und das Schema zugreifen können. Zum Beispiel:

   ```
   grant usage on database share_db to usernames;
   ```

   ```
   grant usage on schema public to usernames;
   ```

# Abfragen von Datashare-Objekten
<a name="query-editor-v2-query-datashare"></a>

Im Konsumenten-Cluster können Sie Datashare-Objekte unter Verwendung der vollqualifizierten Objektnamen abfragen, die mit der dreiteiligen Notation ausgedrückt werden: Datenbank, Schema und Name des Objekts. 

1. Wählen Sie in der Baumansicht des Abfrage-Editors v2 das Schema aus.

1. Um eine Tabellendefinition anzuzeigen, wählen Sie eine Tabelle aus.

   Die Tabellenspalten und Datentypen werden angezeigt.

1. Um eine Tabelle abzufragen, wählen Sie die Tabelle aus und verwenden Sie das Kontextmenü (rechte Maustaste), um **Select table** (Tabelle auswählen) auszuwählen.

1. Fragen Sie Tabellen mithilfe von SELECT Befehlen ab. Zum Beispiel:

   ```
   select top 10 * from test_db.public.event;
   ```

# Geplante Abfragen mit Query Editor v2
<a name="query-editor-v2-schedule-query"></a>

Mit Amazon Redshift Query Editor v2 können Sie SQL-Abfragen so automatisieren, dass sie nach einem Zeitplan ausgeführt werden. Geplante Abfragen sind SQL-Anweisungen, die automatisch zu bestimmten Zeiten oder Intervallen ausgeführt werden. Dies ermöglicht Ihnen eine effiziente Verwaltung von wiederkehrenden Datenoperationen und Analyseaufgaben. Möglicherweise möchten Sie Abfragen planen, wenn Sie die Batch-Verarbeitung optimieren, regelmäßige Berichte erstellen oder Daten-Pipelines innerhalb der Amazon-Redshift-Umgebung verwalten möchten. 

Geplante Abfragen erleichtern die Automatisierung von ETL-Workflows (Extrahieren, Transformieren und Laden), die Aktualisierung von Dashboards mit up-to-date Erkenntnissen und die Operationalisierung verschiedener Datenverwaltungsroutinen. Auf den folgenden Seiten finden Sie ausführliche Erläuterungen zum Erstellen, Konfigurieren und Verwalten von geplanten Abfragen, um Ihre Amazon-Redshift-Workloads zu optimieren.

# Erstellen eines Abfrageplans mit Query Editor v2
<a name="query-editor-v2-schedule-query-create"></a>

Sie können einen Zeitplan für die Ausführung einer SQL-Anweisung mit dem Amazon Redshift Query Editor v2 erstellen. Sie erstellen einen Zeitplan, um die SQL-Anweisung in Zeitintervallen auszuführen, die Ihren Geschäftsanforderungen entsprechen. Wenn die geplante Abfrage ausgeführt werden soll, wird die Abfrage von Amazon gestartet EventBridge und verwendet die Amazon Redshift Data API.

**So erstellen Sie einen Zeitplan für die Ausführung einer SQL-Anweisung**

1. Wählen Sie in der Ansicht **Editor** ![\[Editor\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-align-left.png) die Option ![\[Schedule\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-calendar.png) **Zeitplan** aus, um einen Zeitplan für die Ausführung einer SQL-Anweisung zu erstellen.

1. Wenn Sie den Zeitplan definieren, geben Sie die folgenden Informationen an.
   + Die IAM-Rolle, die die erforderlichen Berechtigungen zum Ausführen der Abfrage übernimmt Diese IAM-Rolle ist auch Ihrem Cluster oder Ihrer Arbeitsgruppe angefügt.
   + Die Authentifizierungswerte für entweder AWS Secrets Manager temporäre Anmeldeinformationen zur Autorisierung des Zugriffs auf Ihren Cluster oder Ihre Arbeitsgruppe. Diese Authentifizierungsmethoden werden von der Daten-API unterstützt. Weitere Informationen finden Sie unter [Authentifizieren einer geplanten Abfrage](query-editor-v2-schedule-query-authentication.md).
   + Den Cluster oder die Arbeitsgruppe, in dem/der sich Ihre Datenbank befindet
   + Den Namen der Datenbank, die die Daten enthält, die abgefragt werden sollen
   + Der Name der geplanten Abfrage und ihre Beschreibung. Im Abfrage-Editor v2 wird dem Namen der geplanten Abfrage, den Sie angeben, das Präfix "-“ QS2 vorangestellt. Der Query Editor v1 stellt Namen von geplanten Abfragen das Präfix „QS-“ voran.
   + Die SQL-Anweisung, die nach dem Zeitplan ausgeführt werden soll
   + Die Zeitplanfrequenz- und Wiederholungsoptionen oder einen cron-formatierten Wert, der den Zeitplan definiert. Weitere Informationen finden Sie unter [Cron Expressions](https://docs.aws.amazon.com/AmazonCloudWatch/latest/events/ScheduledEvents.html#CronExpressions) im *Amazon CloudWatch Events-Benutzerhandbuch*.
   + Optional können Sie Amazon-SNS-Standardbenachrichtigungen aktivieren, um die geplante Abfrage zu überwachen. Möglicherweise müssen Sie die E-Mail-Adresse bestätigen, die Sie für die Amazon-SNS-Benachrichtigung angegeben haben. Sehen Sie in Ihrem Posteingang nach, ob Sie einen Link zur Bestätigung der E-Mail-Adresse für die Amazon-SNS-Benachrichtigung erhalten haben. Weitere Informationen finden Sie unter [E-Mail-Benachrichtigungen](https://docs.aws.amazon.com/sns/latest/dg/sns-email-notifications.html) im *Entwicklerhandbuch zu Amazon Simple Notification Service*. Wenn Ihre Anfrage ausgeführt wird, Sie aber keine Nachrichten sehen, die in Ihrem SNS-Thema veröffentlicht wurden, finden Sie weitere Informationen unter [Meine Regel wird ausgeführt, aber ich sehe keine Nachrichten, die in meinem Amazon SNS SNS-Thema veröffentlicht wurden](https://docs.aws.amazon.com/eventbridge/latest/userguide/eventbridge-troubleshooting.html#eb-no-messages-published-sns), im * EventBridge Amazon-Benutzerhandbuch*.

1. Wählen Sie **Abfrage planen** aus, um den Zeitplan zu speichern und zu aktivieren und den Zeitplan der Liste der Abfragen in der Ansicht **Geplante Abfragen** hinzuzufügen.

In der Ansicht **Geplante Abfragen** ![\[Scheduled queries\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/qev2-calendar.png) sind alle geplanten Abfragen für Ihre Cluster und Arbeitsgruppen aufgeführt. In dieser Ansicht können Sie Details zur geplanten Abfrage anzeigen, den Zeitplan aktivieren oder deaktivieren, den Zeitplan bearbeiten und die geplante Abfrage löschen. Wenn Sie Abfragedetails anzeigen, können Sie auch den Verlauf der Ausführung der Abfrage mit dem Zeitplan einsehen.

**Anmerkung**  
Eine planmäßige Abfrageausführung ist nur 24 Stunden in der Liste **Planverlauf** verfügbar. Abfragen, die nach einem Zeitplan ausgeführt werden, werden nicht in der Ansicht **Abfrageverlauf** von Abfrage-Editor v2 angezeigt.

## Demo der Planung einer Abfrage
<a name="query-editor-v2-schedule-query-demo"></a>

Eine Demo der Planung einer Abfrage sehen Sie im folgenden Video. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/gTw0XUpO8sw/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/gTw0XUpO8sw)


# Festlegen von Berechtigungen zum Planen einer Abfrage
<a name="query-editor-v2-schedule-query-permissions"></a>

Um Abfragen zu planen, muss der AWS Identity and Access Management (IAM-) Benutzer, der den Zeitplan und die dem Zeitplan zugeordnete IAM-Rolle definiert, mit den IAM-Berechtigungen für die Verwendung von Amazon EventBridge und der Amazon Redshift Data API konfiguriert sein. Wenn Sie E-Mails aus geplanten Abfragen erhalten möchten, muss die Amazon-SNS-Benachrichtigung, die optional angegeben werden kann, ebenfalls konfiguriert werden.

Im Folgenden werden die Aufgaben beschrieben, mit denen AWS verwaltete Richtlinien zur Erteilung von Berechtigungen verwendet werden. Abhängig von Ihrer Umgebung möchten Sie jedoch möglicherweise die zulässigen Berechtigungen einschränken.

Bearbeiten Sie für den IAM-Benutzer, der im Abfrage-Editor v2 angemeldet ist, den IAM-Benutzer mithilfe der IAM-Konsole (). [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
+ Zusätzlich zu den Berechtigungen zum Ausführen von Amazon Redshift- und Query Editor v2-Vorgängen können Sie die `AmazonEventBridgeFullAccess` und die `AmazonRedshiftDataFullAccess` AWS verwalteten Richtlinien an einen IAM-Benutzer anhängen. 
+ Sie können auch die Berechtigungen einer Rolle zuweisen und die Rolle dem Benutzer zuweisen.

  Weisen Sie eine Richtlinie, die die Berechtigung `sts:AssumeRole` erteilt, dem Ressourcen-ARN der IAM-Rolle zu, die Sie angeben, wenn Sie die geplante Abfrage definieren. Weitere Informationen zur Übernahme von Rollen finden Sie unter [Erteilen von Berechtigungen an einen Benutzer zum Wechseln von Rollen](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_permissions-to-switch.html) im *IAM-Benutzerhandbuch*.

  Das folgende Beispiel zeigt eine Berechtigungsrichtlinie, die die IAM-Rolle `myRedshiftRole` im Konto `123456789012` übernimmt. Die IAM-Rolle `myRedshiftRole` ist auch die IAM-Rolle, die dem Cluster oder der Arbeitsgruppe angefügt ist, in dem bzw. der die geplante Abfrage ausgeführt wird. 

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "AssumeIAMRole",
              "Effect": "Allow",
              "Action": "sts:AssumeRole",
              "Resource": [
                  "arn:aws:iam::123456789012:role/myRedshiftRole"
              ]
          }
      ]
  }
  ```

------

  Aktualisieren Sie die Vertrauensrichtlinie der IAM-Rolle, die für die Planung der Abfrage verwendet wurde, damit der IAM-Benutzer sie übernehmen kann.

  ```
  {
              "Sid": "AssumeRole",
              "Effect": "Allow",
              "Principal": {
                  "AWS": "arn:aws:iam::123456789012:user/myIAMusername"
              },
              "Action": "sts:AssumeRole"
          }
      ]
  }
  ```

Für die IAM-Rolle, die Sie für die Ausführung der geplanten Abfrage angeben, bearbeiten Sie die IAM-Rolle mithilfe der IAM-Konsole (). [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
+ Hängen Sie die `AmazonRedshiftDataFullAccess` und die `AmazonEventBridgeFullAccess` AWS verwalteten Richtlinien an die IAM-Rolle an. Die verwaltete Richtlinie `AmazonRedshiftDataFullAccess` erteilt `redshift-serverless:GetCredentials` nur Berechtigungen für Redshift-Serverless-Arbeitsgruppen, die mit dem Schlüssel `RedshiftDataFullAccess` gekennzeichnet sind.

# Authentifizieren einer geplanten Abfrage
<a name="query-editor-v2-schedule-query-authentication"></a>

Wenn Sie eine Abfrage planen, verwenden Sie beim Ausführen der SQL-Anweisung eine der folgenden Authentifizierungsmethoden. Jede Methode erfordert eine andere Kombination von Eingaben im Query Editor v2. Diese Authentifizierungsmethoden werden von der Daten-API unterstützt, die zur Ausführung Ihrer SQL-Anweisungen verwendet wird.

Der Datenbankbenutzer oder die Rolle, der bzw. die zum Ausführen der Abfrage verwendet wird, muss über die erforderlichen Datenbankberechtigungen verfügen. Führen Sie den folgenden SQL-Befehl aus, um der Tabelle `mytable` zum Beispiel `IAMR:MyRedshiftQEv2Scheduler`-Berechtigungen zu erteilen.

```
GRANT all ON TABLE mytable TO "IAMR:MyRedshiftQEv2Scheduler";
```

Wenn Sie die Liste der Datenbankbenutzer in Ihrem Cluster oder Ihrer Arbeitsgruppe anzeigen möchten, fragen Sie die Systemansicht `PG_USER_INFO` ab.

**Anmerkung**  
 Jede Redshift-Serverless-Arbeitsgruppe, für die Sie Abfragen planen, muss mit dem Schlüssel `RedshiftDataFullAccess` gekennzeichnet werden. Weitere Informationen finden Sie unter [Autorisieren des Zugriffs auf die Amazon Redshift Data API](data-api-access.md).  
Als Alternative zum Kennzeichnen der Arbeitsgruppe können Sie der IAM-Rolle (die im Zeitplan angegeben ist) eine Inline-Richtlinie hinzufügen, die `redshift-serverless:GetCredentials` erlaubt. Beispiel:  

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "UseTemporaryCredentialsForAllServerlessWorkgroups",
            "Effect": "Allow",
            "Action": "redshift-serverless:GetCredentials",
            "Resource": [
                "arn:aws:redshift-serverless:*:*:workgroup/*"
            ]
        }
    ]
}
```

**AWS Secrets Manager**  
Geben Sie bei dieser Methode einen Secret-Wert für **secret-arn** an, der in AWS Secrets Manager gespeichert ist. Dieses Secret enthält Anmeldeinformationen zum Verbinden mit Ihrer Datenbank. Möglicherweise haben Sie bei der Erstellung Ihres Clusters oder Ihrer Arbeitsgruppe ein Secret mit den richtigen Anmeldeinformationen erstellt. Das Secret muss mit dem Schlüssel `RedshiftDataFullAccess` markiert sein. Wenn der Tag-Schlüssel noch nicht vorhanden ist, verwenden Sie die AWS Secrets Manager Konsole, um ihn hinzuzufügen. Weitere Informationen zum Erstellen eines Secrets finden Sie unter [Erstellen eines Secrets für Anmeldeinformationen zur Datenbankverbindung](redshift-secrets-manager-integration-create.md).  
Weitere Informationen zu den Mindestberechtigungen finden Sie unter [Erstellen und Verwalten von Secrets mit AWS Secrets Manager](https://docs.aws.amazon.com/secretsmanager/latest/userguide/managing-secrets.html) im *AWS Secrets Manager -Benutzerhandbuch*. 

**Temporäre Anmeldeinformationen**  
Geben Sie bei dieser Methode Ihre Werte für **Datenbankname** und **Datenbankbenutzer** an, wenn Sie eine Verbindung mit einer Datenbank in einem Cluster herstellen. Sie müssen nur Ihren Wert für **Datenbankname** angeben, wenn Sie eine Verbindung mit einer Datenbank in einer Arbeitsgruppe herstellen.  
Wenn Sie eine Verbindung mit einem Cluster herstellen, erteilt die `AmazonRedshiftDataFullAccess`-Richtlinie dem Datenbankbenutzer mit dem Namen `redshift_data_api_user` Berechtigung für `redshift:GetClusterCredentials`. Wenn Sie zum Ausführen der SQL-Anweisung einen anderen Datenbankbenutzer verwenden möchten, fügen Sie der Ihrem Cluster zugewiesenen IAM-Rolle eine Richtlinie hinzu, um `redshift:GetClusterCredentials` zu erlauben. Mit der folgenden Beispielrichtlinie werden die Datenbankbenutzer `awsuser` und `myuser` zugelassen.     
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "UseTemporaryCredentialsForAllDbUsers",
            "Effect": "Allow",
            "Action": "redshift:GetClusterCredentials",
            "Resource": [
                "arn:aws:redshift:*:*:dbuser:*/awsuser",
                "arn:aws:redshift:*:*:dbuser:*/myuser"
            ]
        }
    ]
}
```

# Festlegen von Berechtigungen zum Anzeigen des Zeitplanverlaufs der Abfrage
<a name="query-editor-v2-schedule-query-view-history"></a>

Damit Benutzer den Zeitplanverlauf der Abfrage anzeigen können, bearbeiten Sie die IAM-Rolle (die im Zeitplan angegeben ist) **Vertrauensstellungen**, um Berechtigungen hinzuzufügen.

Im Folgenden finden Sie ein Beispiel für eine Vertrauensrichtlinie in einer IAM-Rolle, die es dem IAM-Benutzer ermöglicht, den Verlauf von Zeitplanabfragen *myIAMusername* einzusehen. Anstatt einem IAM-Benutzer `sts:AssumeRole`-Berechtigung zu erteilen, können Sie diese Berechtigung wahlweise einer IAM-Rolle gewähren.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "Service": [
                    "redshift.amazonaws.com",
                    "redshift-serverless.amazonaws.com"
                ]
            },
            "Action": "sts:AssumeRole"
        },
        {
            "Effect": "Allow",
            "Principal": {
                "Service": "events.amazonaws.com"
            },
            "Action": "sts:AssumeRole"
        },
        {
            "Sid": "AssumeRole",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::123456789012:user/myIAMusername"
            },
            "Action": "sts:AssumeRole"
        }
    ]
}
```

------

# Überwachung der geplanten Abfrage
<a name="query-editor-v2-schedule-query-sns"></a>

Für das Amazon-SNS-Thema, das Sie für den Versand von E-Mail-Benachrichtigungen angeben, erstellen Sie das Amazon-SNS-Thema mit dem Abfrage-Editor v2, indem Sie zum Abschnitt **SNS-Benachrichtigungen** navigieren, **Aktivieren** für die Überwachung und **SNS-Thema erstellen** auswählen. Der Abfrage-Editor v2 erstellt das Amazon SNS SNS-Thema und fügt der Zugriffsrichtlinie für Amazon EventBridge einen Service Principal hinzu. Das folgende Beispiel zeigt eine **Zugriffsrichtlinie**, die im Amazon-SNS-Thema erstellt wurde. In dem Beispiel werden das Thema AWS-Region *us-west-2* AWS-Konto *123456789012*, und Amazon SNS *select-version-pdx-testunload* verwendet.

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Id": "__default_policy_ID",
  "Statement": [
    {
      "Sid": "Allow_Publish_Events",
      "Effect": "Allow",
      "Principal": {
        "Service": "events.amazonaws.com"
      },
      "Action": "sns:Publish",
      "Resource": "arn:aws:sns:us-west-2:123456789012:select-version-pdx-testunload"
    }
  ]
}
```

------

Wenn die geplante Abfrage ausgeführt wird, sendet Amazon SNS AWS Benachrichtigungs-E-Mails. Das folgende Beispiel zeigt eine E-Mail, die *myemail@example.com* für eine geplante Anfrage gesendet wurde und *QS2-may25a* die AWS-Region *eu-north-1* im Benachrichtigungsthema AWS-Konto *123456789012* *may25a-SNS* Using Amazon SNS ausgeführt wurde.

```
{"version":"0","id":"8e4323ec-5258-7138-181b-91290e30ff9b","detail-type":"Scheduled Event","source":"aws.events","account":"123456789012","time":"2023-05-25T15:22:00Z",
                    "region":"eu-north-1","resources":["arn:aws:events:eu-north-1:123456789012:rule/QS2-may25a"],"detail":{}}

--
If you wish to stop receiving notifications from this topic, please click or visit the link below to unsubscribe:
https://sns.eu-north-1.amazonaws.com/unsubscribe.html?SubscriptionArn=arn:aws:sns:eu-north-1:123456789012:may25a-SNS:0c1a3d05-39c2-4507-bc3d-47250513d7b0&Endpoint=myemail@example.com

Please do not reply directly to this email. If you have any questions or comments regarding this email, please contact us at https://aws.amazon.com/support
```

# Fehlerbehebung bei der Einrichtung oder Planung einer Abfrage
<a name="query-editor-v2-schedule-query-troubleshooting"></a>

Beachten Sie Folgendes, wenn Sie Probleme beim Planen einer Abfrage haben.

**Abfragen, die nicht ausgeführt werden**  
Prüfen Sie, ob die im Zeitplan verwendete IAM-Rolle berechtigt ist, die temporären Cluster-Anmeldeinformationen abzurufen. Die Berechtigung für bereitgestellte Cluster lautet `redshift:GetClusterCredentialsWithIAM`. Die Berechtigung für Redshift-Serverless-Arbeitsgruppen lautet `redshift-serverless:GetCredentials`.

**Der geplante Verlauf wird nicht angezeigt**  
Der IAM-Benutzer oder die IAM-Rolle, mit der Sie sich bei der AWS Konsole angemeldet haben, wurde nicht zur Vertrauensrichtlinie der IAM-Rolle hinzugefügt, die für die Planung der Abfrage verwendet wurde.  
Wenn Sie die Verbindung AWS Secrets Manager für die geplante Abfrage verwenden, vergewissern Sie sich, dass das Geheimnis mit dem Schlüssel gekennzeichnet ist. `RedshiftDataFullAccess`  
Wenn die geplante Abfrage eine AWS Secrets Manager Verbindung verwendet, muss der IAM-Rolle, die für die Planung der Abfrage verwendet wird, der Rolle das Äquivalent einer verwalteten Richtlinie `SecretsManagerReadWrite` zugewiesen sein.

**Der Status des Abfrageverlaufs lautet `Failed`**  
In der SYS\$1QUERY\$1HISTORY-Systemansicht finden Sie Einzelheiten darüber, warum die Abfrage fehlgeschlagen ist. Ein häufiges Problem ist, dass der Datenbankbenutzer oder die Rolle, der bzw. die für die Ausführung der Abfrage verwendet wurde, möglicherweise nicht über die erforderliche Berechtigung zum Ausführen der SQL-Anweisung verfügte. Weitere Informationen finden Sie unter [Authentifizieren einer geplanten Abfrage](query-editor-v2-schedule-query-authentication.md).  
Mit der folgenden SQL-Anweisung wird die SYS\$1QUERY\$1HISTORY-Ansicht abgefragt, um fehlgeschlagene Abfragen zurückzugeben.  

```
SELECT user_id, query_id, transaction_id, session_id, database_name, query_type, status, error_message, query_text 
FROM sys_query_history
WHERE status = 'failed';
```
Details zu einer bestimmten fehlgeschlagenen geplanten Abfrage finden Sie unter [Die Ergebnisse einer geplanten Abfrage anzeigen mit AWS CloudShell](query-editor-v2-schedule-query-troubleshooting-cloudshell.md).

# Die Ergebnisse einer geplanten Abfrage anzeigen mit AWS CloudShell
<a name="query-editor-v2-schedule-query-troubleshooting-cloudshell"></a>

Sie können AWS CloudShell es verwenden, um Details zu einer Zeitplanabfrage herauszufinden. Sie müssen über die entsprechenden Berechtigungen verfügen, um die im folgenden Verfahren beschriebenen AWS CLI Befehle ausführen zu können.

**So zeigen Sie die Ergebnisse einer geplanten Abfrage an**

1. Öffnen Sie auf der AWS Konsole die AWS CloudShell Eingabeaufforderung. Weitere Informationen zu AWS CloudShell finden Sie unter [Was ist AWS CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

1. Übernehmen Sie die IAM-Rolle der geplanten Abfrage. Um die Rolle zu übernehmen, suchen Sie im Abfrage-Editor v2 nach der IAM-Rolle, die der geplanten Abfrage zugeordnet ist, und verwenden Sie sie im AWS CLI -Befehl in  AWS CloudShell. Geben Sie zum Beispiel für die Rolle `scheduler` einen AWS STS -Befehl ein, um die Rolle zu übernehmen, die von der geplanten Abfrage verwendet wird.

   ```
   aws sts assume-role --role-arn "arn:aws:iam::123456789012:role/scheduler" --role-session-name "scheduler-test" 
   ```

   Die zurückgegebenen Anmeldeinformationen sehen ähnlich wie die folgenden aus.

   ```
   "Credentials": {
   "AccessKeyId": "AKIAIOSFODNN7EXAMPLE",
   "SecretAccessKey": "wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY",
   "SessionToken": "je7MtGbClwBF/2Zp9Utk/h3yCo8nvbEXAMPLEKEY...",        
   "Expiration": "2023-08-18T18:19:44+00:00"
   },
   "AssumedRoleUser": {
   "AssumedRoleId": "AROA35B2NH6WBTP7ONL4E:scheduler-test",
   "Arn": "arn:aws:sts::123456789012:assumed-role/scheduler/scheduler-test"
   }
   }
   ```

1. Erstellen Sie Umgebungsvariablen unter AWS CLI Verwendung der Anmeldeinformationen, die bei der Übernahme der IAM-Rolle angezeigt werden. Sie müssen diese Tokens vor ihrer Ablaufzeit verwenden. Sie geben beispielsweise Folgendes in AWS CloudShell ein.

   ```
   export AWS_ACCESS_KEY_ID=AKIAIOSFODNN7EXAMPLE
   export AWS_SECRET_ACCESS_KEY=wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY
   export AWS_SESSION_TOKEN=je7MtGbClwBF/2Zp9Utk/h3yCo8nvbEXAMPLEKEY...
   ```

1. Um den Fehler einer fehlgeschlagenen Abfrage anzuzeigen, führen Sie den AWS CLI Befehl zur Beschreibung einer Anweisung aus. Die ID der SQL-Anweisung stammt von der **ID**, die im Abschnitt **Planverlauf** einer geplanten Abfrage im Abfrage-Editor v2 angezeigt wird.

   ```
   aws redshift-data describe-statement --id 130d2620-05d2-439c-b7cf-815d9767f513
   ```

   In diesem Beispiel führt der geplante SQL-Code `select * from users limit 100` zu einem SQL-Fehler, weil die Tabelle `users` nicht vorhanden ist.

   ```
   {
   "CreatedAt": "2023-08-18T17:39:15.563000+00:00",
   "Duration": -1,
   "Error": "ERROR: relation \"users\" does not exist",
   "HasResultSet": false,
   "Id": "a1b2c3d4-5678-90ab-cdef-EXAMPLE11111",
   "QueryString": "select * from users limit 100\n—RequestID=a1b2c3d4-5678-90ab-cdef-EXAMPLE22222; TraceID=1-633c5642-4039308d03f3a0ba53dbdf6f",
   "RedshiftPid": 1073766651,
   "RedshiftQueryId": 0,
   "ResultRows": -1,
   "ResultSize": -1,
   "Status": "FAILED",
   "UpdatedAt": "2023-08-18T17:39:16.116000+00:00",
   "WorkgroupName": "default"
   }
   ```

# Visualisieren von Abfrageergebnissen
<a name="query-editor-v2-charts"></a>

Wenn Sie eine Abfrage ausgeführt haben und die Ergebnisse angezeigt werden, können Sie **Chart** (Diagramm) aktivieren, um eine grafische Darstellung der aktuellen Ergebnisseite anzuzeigen. Sie können die folgenden Steuerelemente verwenden, um Inhalt, Struktur und Aussehen Ihres Diagramms zu definieren:

![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png)-Trace  
Stellt eine Reihe verwandter grafischer Markierungen in einem Diagramm dar. Sie können in einem Diagramm mehrere Traces definieren.

Typ  
Sie können den Trace-Typ definieren, um Daten als eine der folgenden darzustellen:  
+ Streudiagramm für ein Streudiagramm oder ein Blasendiagramm.
+ Balkendiagramm zur Darstellung von Datenkategorien mit vertikalen oder horizontalen Balken.
+ Flächendiagramm zum Definieren gefüllter Bereiche.
+ Histogramm, das Balken verwendet, um die Frequenzverteilung darzustellen.
+ Kreisdiagramm für eine kreisförmige Darstellung von Daten, bei denen jedes Stück einen Prozentsatz des Ganzen darstellt.
+ Trichter- oder Trichterflächendiagramm zur Darstellung von Daten in verschiedenen Phasen eines Prozesses.
+ Das OHLC (open-high-low-close) -Diagramm wird häufig für Finanzdaten verwendet, um offene, hohe, niedrige und geschlossene Werte entlang der X-Achse darzustellen, die normalerweise Zeitintervalle darstellt.
+ Kerzendiagramm zur Darstellung eines Wertebereichs für eine Kategorie über einen Zeitraum.
+ Wasserfalldiagramm, um darzustellen, wie ein Anfangswert durch eine Reihe von Zwischenwerten zunimmt oder abnimmt. Werte können Zeitintervalle oder Kategorien darstellen.
+ Liniendiagramm zur Darstellung von Wertänderungen im Laufe der Zeit.

X-Achse  
Sie geben eine Tabellenspalte an, die Werte enthält, die entlang der X-Achse dargestellt werden sollen. Spalten, die beschreibende Werte enthalten, stellen normalerweise dimensionale Daten dar. Spalten, die quantitative Werte enthalten, stellen normalerweise Sachdaten dar.

Y-Achse  
Sie geben eine Tabellenspalte an, die Werte enthält, die entlang der Y-Achse dargestellt werden sollen. Spalten, die beschreibende Werte enthalten, stellen normalerweise dimensionale Daten dar. Spalten, die quantitative Werte enthalten, stellen normalerweise Sachdaten dar.

Nebenhandlungen  
Sie können zusätzliche Darstellungen von Diagrammdaten definieren.

Transformiert  
Sie können Transformationen definieren, um Trace-Daten zu filtern. Sie verwenden eine geteilte Transformation, um mehrere Traces aus einer einzigen Quell-Trace anzuzeigen. Sie verwenden eine Aggregat-Transformation, um eine Trace als Durchschnitt oder Minimum darzustellen. Sie verwenden eine Sortiertransformation, um ein Trace zu sortieren.

Allgemeines Erscheinungsbild  
Sie können Standardeinstellungen für Hintergrundfarbe, Randfarbe, Farbskalen zum Entwerfen von Paletten, Textstil und -formaten, Titelstil und -format sowie Modusleiste festlegen. Sie können Interaktionen für Ziehen, Klicken und Zeigen mit der Maus definieren. Sie können Metatext definieren. Sie können Standarddarstellungen für Traces, Achsen, Legenden und Anmerkungen definieren.

**Einen Alarm erstellen**

1. Führen Sie eine Abfrage aus und erhalten Sie Ergebnisse.

1. Aktivieren Sie **Charts** (Diagramme) aus.

1. Wählen Sie **Trace** (Nachverfolgung) und visualisieren Sie Ihre Daten.

1. Wählen Sie einen der folgenden Diagrammstile aus:
   + Streuung
   + Säulen
   + Flächen
   + Histogramm
   + Kreis
   + Trichter
   + Trichterflächen
   + OHLC () open-high-low-close
   + Kerzen
   + Wasserfall
   + Linien

1. Wählen Sie **Style** (Stil) aus, um das Erscheinungsbild wie Farben, Achsen, Legende und Anmerkungen anzupassen. Sie können Text, Formen und Bilder hinzufügen.

1. Wählen Sie **Annotations** (Ergänzungen) aus, um Text, Formen und Bilder hinzuzufügen.

1. Um das Diagramm zu aktualisieren, wählen Sie **Refresh** (Aktualisieren) aus. Wählen Sie **Full screen** (Vollbild) aus, um die Diagrammanzeige zu erweitern.

## Beispiel: Ein Kreisdiagramm zur grafischen Darstellung der Abfrageergebnisse erstellen
<a name="query-editor-v2-example-pie-chart"></a>

Im folgenden Beispiel wird die Tabelle *Sales* (Umsatz) aus der Beispieldatenbank verwendet. Weitere Informationen finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

Im Folgenden finden Sie die Abfrage, die Sie ausführen, um die Daten für das Kreisdiagramm bereitzustellen.

```
select top 5 eventname, count(salesid) totalorders, sum(pricepaid) totalsales 
from sales, event
where sales.eventid=event.eventid group by eventname
order by 3;
```

**Ein Kreisdiagramm für die Top-Veranstaltung nach Gesamtumsatz erstellen**

1. Führen Sie die Abfrage aus.

1. Aktivieren Sie im Bereich mit den Abfrageergebnissen **Chart** (Diagramm).

1. Wählen Sie **Trace** aus.

1. Wählen Sie unter **Type** den Typ **Pie** (Kreis) aus.

1. Wählen Sie bei **Values** (Werte) *totalsales* aus.

1. Wählen Sie bei **Labels** (Markierungen) *eventname* aus.

1. Wählen Sie bei **Style** den Stil **General** (Allgemein) aus.

1. Wählen Sie unter **Colorscales** (Farbskalen) die Option **Categorical** (Kategorisch) und dann **Pastel2** aus.

![\[Kreisdiagramm\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/pie-chart.png)


## Beispiel: Ein Kombinationsdiagramm zum Vergleich von Umsatz und Verkäufen erstellen
<a name="query-editor-v2-example-revenue-sales-chart"></a>

Führen Sie die Schritte in diesem Beispiel aus, um ein Diagramm zu erstellen, das ein Balkendiagramm für Umsatzdaten und ein Liniendiagramm für Verkaufsdaten kombiniert. Im folgenden Beispiel wird die Tabelle *Sales* (Verkäufe) aus der Ticket-Beispieldatenbank verwendet. Weitere Informationen finden Sie unter [Beispieldatenbank](https://docs.aws.amazon.com/redshift/latest/dg/c_sampledb.html) im *Datenbankentwicklerhandbuch zu Amazon Redshift*. 

Im Folgenden finden Sie die Abfrage, die Sie ausführen, um die Daten für das Diagramm bereitzustellen.

```
select eventname, total_price, total_qty_sold
from  (select eventid, total_price, total_qty_sold, ntile(1000) over(order by total_price desc) as percentile
       from (select eventid, sum(pricepaid) total_price, sum(qtysold) total_qty_sold
             from   tickit.sales
             group by eventid)) Q, tickit.event E
       where Q.eventid = E.eventid
       and percentile = 1
order by total_price desc;
```

**So erstellen Sie ein Kombinationstabelle zum Vergleich von Umsatz und Verkäufen**

1. Führen Sie die Abfrage aus.

1. Aktivieren Sie im Bereich mit den Abfrageergebnissen **Chart** (Diagramm).

1. Wählen Sie unter *trace o* für **Type** (Typ) die Option **Bar** (Balken) aus.

1. Wählen Sie für **X***eventname* aus.

1. Wählen Sie für **Y***total\$1price* aus.

   Das Balkendiagramm wird mit Ereignisnamen entlang der X-Achse angezeigt.

1. Wählen Sie unter **Style** (Stil) **Traces** aus. 

1. Geben Sie für **Name** die Option *Revenue* (Umsatz) ein.

1. Wählen Sie unter **Style** (Stil) die Option **Axes** (Achsen) aus. 

1. Wählen Sie für **Title** (Titel) die Option **Y** aus und öffnen Sie *Revenue* (Umsatz).

   Die Bezeichnung *Revenue* (Umsatz) wird auf der linken Y-Achse angezeigt.

1. Wählen Sie unter **Structure** (Struktur) **Traces** aus.

1. Wählen Sie ![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png)**Trace** aus.

   Die Optionen „Trace 1“ werden angezeigt.

1. Wählen Sie für **Type** (Typ) die Option **Line** (Linie) aus.

1. Wählen Sie für **X***eventname* aus.

1. Wählen Sie für **Y***total\$1qty\$1sold* aus.

1. Wählen Sie unter **Axes To Use** (Zu verwendende Achsen) für **Y Axis** (Y-Achse) die Option ![\[Plus sign icon representing an addition or new item action.\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/add-plus.png) aus. 

   Die **Y Axis** (Y-Achse) zeigt *Y2* an.

1. Wählen Sie unter **Style** (Stil), **Axes** (Achsen) aus.

1. Wählen Sie unter **Titles** (Titel) **Y2** aus.

1. Geben Sie für **Name***Sales* (Verkäufe) ein.

1. Wählen Sie unter **Lines** (Linien) *Y:Sales* (Y:Verkäufe) aus.

1. Wählen unter **Axis Line** (Achsen-Linie) die Option **Show** (Anzeigen) und für **Position** die Option **Right** (Rechts) aus.

![\[Umsatz- und Verkaufstabelle\]](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/images/chart-revenue-sales.png)


## Demo: Visualisierungen mit dem Abfrage-Editor v2 von Amazon Redshift erstellen
<a name="query-editor-v2-demo-visualizations"></a>

Eine Demo zum Erstellen von Visualisierungen finden Sie im folgenden Video. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/-FYqTIER-6U/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/-FYqTIER-6U)


# Zusammenarbeiten und Teilen im Team
<a name="query-editor-v2-team"></a>

Sie können Abfragen mit Ihrem Team teilen. 

Ein Team ist für eine Gruppe von Benutzern definiert, die zusammenarbeiten und Ressourcen des Abfrage-Editors v2 gemeinsam nutzen. Ein Administrator kann ein Team erstellen, indem er einer IAM-Rolle ein Tag hinzufügt. Weitere Informationen finden Sie unter [Für die Verwendung des Abfrage-Editors v2 erforderliche Berechtigungen](redshift-iam-access-control-identity-based.md#redshift-policy-resources.required-permissions.query-editor-v2). 

# Speichern und Suchen von Abfragen
<a name="query-editor-v2-save-queries"></a>

Bevor Sie Ihre Abfrage mit Ihrem Team teilen können, speichern Sie sie. Sie können gespeicherte Abfragen anzeigen und löschen. 

**Eine Abfrage speichern**

1. Bereiten Sie Ihre Abfrage vor und wählen Sie **Save** (Speichern) aus.

1. Geben Sie einen Titel für die Abfrage ein.

1. Wählen Sie **Speichern**. 

**Nach gespeicherten Abfragen suchen**

1. Wählen Sie im Navigationsbereich **Queries** (Abfragen) aus.

1. Sie können verschiedene Abfragen sehen: **My queries** (Meine Abfragen), **Shared by me** (Von mir geteilt) bzw. **Shared to my team** (Für mein Team freigegeben). Diese Abfragen können als einzelne Abfragen oder in dafür erstellten Ordnern angezeigt werden.

# Teilen einer Abfrage
<a name="query-editor-v2-query-share"></a>

Sie können eigene Abfragen mit Ihrem Team teilen. Sie können auch den Verlauf der gespeicherten Abfragen anzeigen und Abfrageversionen verwalten. 

Um eine Abfrage mit Ihrem Team zu teilen, müssen Sie sicherstellen, dass das Prinzipal-Tag `sqlworkbench-team` auf den gleichen Wert wie bei den übrigen Teammitgliedern in Ihrem Konto eingestellt ist. Beispielsweise könnte ein Administrator den Wert für jeden in der Buchhaltungsabteilung auf `accounting-team` einstellen. Ein Beispiel finden Sie unter [Für die Verwendung des Abfrage-Editors v2 erforderliche Berechtigungen](redshift-iam-access-control-identity-based.md#redshift-policy-resources.required-permissions.query-editor-v2).

**Eine Abfrage mit einem Team teilen**

1. Wählen Sie im Navigationsbereich **Queries** (Abfragen) aus.

1. Öffnen Sie das Kontextmenü der Abfrage, die Sie teilen möchten (rechte Maustaste) und wählen Sie **Share with my team** (Mit meinem Team teilen) aus.

1. Wählen Sie das Team oder die Teams aus, mit denen Sie die Abfrage teilen möchten, und wählen Sie dann **Save sharing options** (Freigabeoptionen speichern) aus. 

# Verwalten von Abfrageversionen
<a name="query-editor-v2-query-versions"></a>

Jede gespeicherte SQL-Abfrage wird vom Abfrage-Editor v2 als neue Version gespeichert. Sie können frühere Abfrageversionen durchsuchen, eine Kopie einer Abfrage speichern oder eine Abfrage wiederherstellen. 

**Abfrageversionen verwalten**

1. Wählen Sie im Navigationsbereich **Queries** (Abfragen) aus.

1. Öffnen Sie das Kontextmenü für die Abfrage (rechte Maustaste), mit der Sie arbeiten möchten.

1. Wählen Sie auf **Version history** (Versionshistorie) aus, um eine Liste von Versionen der Abfrage zu öffnen.

1. Auf der Seite **Version history** (Versionshistorie) haben Sie folgende Möglichkeiten:
   + **Revert to selected** (Zurück zur Auswahl) – Kehren Sie zur ausgewählten Version zurück und setzen Sie Ihre Arbeit mit dieser Version fort.
   + **Save selected under** (Auswahl speichern unter) – Erstellen Sie im Editor eine neue Abfrage.