

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verbindung zu Google herstellen BigQuery in AWS Glue Studio
<a name="connecting-to-data-bigquery"></a>

**Anmerkung**  
  Sie können AWS Glue for Spark verwenden, um in Google in AWS Glue 4.0 und späteren Versionen aus Tabellen zu lesen und BigQuery in Tabellen zu schreiben. Informationen zur programmgesteuerten Konfiguration von Google BigQuery mit AWS Glue Jobs finden Sie unter [BigQuery Verbindungen](aws-glue-programming-etl-connect-bigquery-home.md).  

 AWS Glue Studiobietet eine visuelle Oberfläche, mit der Sie eine Verbindung herstellen BigQuery, Datenintegrationsjobs erstellen und diese auf der AWS Glue Studio serverlosen Spark-Laufzeit ausführen können. 

 Beim Herstellen einer Verbindung zu Google BigQuery in AWS Glue Studio wird eine einheitliche Verbindung hergestellt. Weitere Informationen finden Sie unter [Überlegungen](using-connectors-unified-connections.md#using-connectors-unified-connections-considerations). 

 Anstatt ein Geheimnis mit den Anmeldeinformationen in einem bestimmten Format zu erstellen`{"credentials": "base64 encoded JSON"}`, können Sie jetzt mit einer einheitlichen Verbindung zu Google ein Geheimnis erstellen BigQuery, das direkt den JSON von Goolge BigQuery enthält:. `{"type": "service-account", ...}` 

**Topics**
+ [

# BigQuery Verbindung herstellen
](creating-bigquery-connection.md)
+ [

# Einen BigQuery Quellknoten erstellen
](creating-bigquery-source-node.md)
+ [

# Einen BigQuery Zielknoten erstellen
](creating-bigquery-target-node.md)
+ [

## Erweiterte Optionen
](#creating-bigquery-connection-advanced-options)

# BigQuery Verbindung herstellen
<a name="creating-bigquery-connection"></a>

Um BigQuery von aus eine Verbindung zu Google herzustellen AWS Glue, müssen Sie Ihre Anmeldeinformationen für die Google Cloud Platform erstellen und AWS Secrets Manager geheim speichern und dieses Geheimnis dann einer BigQuery AWS Glue Google-Verbindung zuordnen.

**So konfigurieren Sie eine Verbindung zu BigQuery:**

1. Erstellen und identifizieren Sie in der Google Cloud Platform relevante Ressourcen:
   + Erstellen oder identifizieren Sie ein GCP-Projekt mit BigQuery Tabellen, zu denen Sie eine Verbindung herstellen möchten.
   + Aktivieren Sie die BigQuery API. Weitere Informationen finden Sie unter [Verwenden der BigQuery Storage Read API zum Lesen von Tabellendaten](https://cloud.google.com/bigquery/docs/reference/storage/#enabling_the_api).

1. Erstellen und exportieren Sie in Google Cloud Platform Anmeldeinformationen für ein Dienstkonto:

   Sie können den Assistenten für BigQuery Anmeldeinformationen verwenden, um diesen Schritt zu beschleunigen: Anmeldeinformationen [erstellen](https://console.cloud.google.com/apis/credentials/wizard?api=bigquery.googleapis.com).

   Folgen Sie der Anleitung unter [Dienstkonten erstellen](https://cloud.google.com/iam/docs/service-accounts-create), um ein Dienstkonto in GCP zu erstellen.
   + Wählen Sie bei der **Projektauswahl** das Projekt aus, das Ihre BigQuery Tabelle enthält.
   + Wenn Sie GCP-IAM-Rollen für Ihr Dienstkonto auswählen, fügen Sie eine Rolle hinzu oder erstellen Sie eine Rolle, die entsprechende Berechtigungen zum Ausführen von BigQuery Jobs zum Lesen, Schreiben oder Erstellen BigQuery von Tabellen gewährt.

   Folgen Sie der Anleitung unter [Einen Dienstkontoschlüssel erstellen](https://cloud.google.com/iam/docs/keys-create-delete#creating), um Anmeldeinformationen für Ihr Dienstkonto zu erstellen.
   + Wählen Sie für den Schlüsseltyp **JSON** aus.

   Sie sollten jetzt eine JSON-Datei mit Anmeldeinformationen für Ihr Dienstkonto heruntergeladen haben. Das sollte bei Ihnen ähnlich wie im folgenden Bild aussehen:

   ```
   {
     "type": "service_account",
     "project_id": "*****",
     "private_key_id": "*****",
     "private_key": "*****",
     "client_email": "*****",
     "client_id": "*****",
     "auth_uri": "https://accounts.google.com/o/oauth2/auth",
     "token_uri": "https://oauth2.googleapis.com/token",
     "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
     "client_x509_cert_url": "*****",
     "universe_domain": "googleapis.com"
   }
   ```

1. Erstellen Sie AWS Secrets Manager unter mithilfe Ihrer heruntergeladenen Anmeldeinformationsdatei ein Geheimnis. Sie können die Registerkarte **Klartext** auswählen und den Inhalt der Datei im JSON-Format einfügen. Um ein Geheimnis in Secrets Manager zu erstellen, folgen Sie dem Tutorial, das in der AWS Secrets Manager Dokumentation unter [Create an AWS Secrets Manager Secret](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret.html) verfügbar ist. Nachdem Sie das Geheimnis erstellt haben, behalten Sie den Geheimnamen *secretName* für den nächsten Schritt bei. 

1. Stellen Sie im AWS Glue Datenkatalog eine Verbindung her, indem Sie den Schritten unter folgen[https://docs.aws.amazon.com/glue/latest/dg/console-connections.html](https://docs.aws.amazon.com/glue/latest/dg/console-connections.html). Nachdem Sie die Verbindung hergestellt haben, behalten Sie den Verbindungsnamen für den nächsten Schritt bei. *connectionName* 
   + Wählen Sie bei der Auswahl eines **Verbindungstyps** Google aus BigQuery.
   + Geben Sie bei der Auswahl eines **AWS Geheimnisses** Folgendes an*secretName*.

1. Erteilen Sie der mit Ihrem AWS Glue Job verknüpften IAM-Rolle *secretName* Leserechte.

1. Stellen *connectionName* Sie in Ihrer AWS Glue Jobkonfiguration eine **zusätzliche Netzwerkverbindung** bereit.

# Einen BigQuery Quellknoten erstellen
<a name="creating-bigquery-source-node"></a>

## Voraussetzungen
<a name="creating-bigquery-source-node-prerequisites"></a>
+ Eine Verbindung BigQuery vom Typ AWS Glue Datenkatalog
+ Ein AWS Secrets Manager Geheimnis für Ihre BigQuery Google-Anmeldeinformationen, das von der Verbindung verwendet wird.
+ Entsprechende Berechtigungen für Ihren Auftrag zum Lesen des von der Verbindung verwendeten Secrets.
+ Der Name und der Datensatz der Tabelle und des entsprechenden Google Cloud-Projekts, das gelesen werden soll.

## Eine BigQuery Datenquelle hinzufügen
<a name="creating-bigquery-source-node-add"></a>

**Um einen **BigQueryDatenquellen-Node** hinzuzufügen:**

1.  Wählen Sie die Verbindung für Ihre BigQuery Datenquelle. Da Sie sie erstellt haben, sollte sie in der Dropdown-Liste verfügbar sein. Wenn Sie eine Verbindung herstellen müssen, wählen Sie ** BigQuery Verbindung erstellen**. Weitere Informationen finden Sie unter [Übersicht über die Verwendung von Konnektoren und Verbindungen](https://docs.aws.amazon.com/glue/latest/ug/connectors-chapter.html#using-connectors-overview). 

    Nachdem Sie eine Verbindung ausgewählt haben, können Sie die Verbindungseigenschaften anzeigen, indem Sie auf **Eigenschaften anzeigen** klicken. 

1. Identifizieren Sie, welche BigQuery Daten Sie lesen möchten, und wählen Sie dann eine **BigQuery Quelloption**
   + Einzelne Tabelle auswählen – ermöglicht es Ihnen, alle Daten aus einer Tabelle abzurufen.
   + Benutzerdefinierte Abfrage eingeben – ermöglicht Ihnen, durch Angabe einer Abfrage anzupassen, welche Daten abgerufen werden.

1.  Beschreiben Sie die Daten, die gelesen werden sollen

   **(Erforderlich) **Geben Sie als **Übergeordnetes Projekt** das Projekt, das Ihre Tabelle enthält, oder, falls relevant, ein übergeordnetes Fakturierungsprojekt an.

   Wenn du eine einzelne Tabelle ausgewählt hast, **setze Table** auf den Namen einer BigQuery Google-Tabelle im folgenden Format: `[dataset].[table]` 

   Wenn Sie eine Abfrage ausgewählt haben, tun Sie dies für **Abfrage**. Verweisen Sie in Ihrer Abfrage mit ihrem vollständig qualifizierten Tabellennamen im folgenden Format auf Tabellen: `[project].[dataset].[tableName]`.

1.  Geben Sie BigQuery Eigenschaften an 

   Wenn Sie eine einzelne Tabelle ausgewählt haben, müssen Sie keine zusätzlichen Eigenschaften angeben.

   Wenn Sie eine Abfrage ausgewählt haben, müssen Sie die folgenden **benutzerdefinierten BigQuery Google-Eigenschaften** angeben:
   + Setzen Sie `viewsEnabled` auf „true“.
   + Legen Sie `materializationDataset` auf einen Datensatz fest. Der GCP-Prinzipal, der anhand der über die AWS Glue Verbindung bereitgestellten Anmeldeinformationen authentifiziert wurde, muss in der Lage sein, Tabellen in diesem Datensatz zu erstellen.

# Einen BigQuery Zielknoten erstellen
<a name="creating-bigquery-target-node"></a>

## Voraussetzungen
<a name="creating-bigquery-target-node-prerequisites"></a>
+ Eine Verbindung BigQuery vom Typ AWS Glue Datenkatalog
+ Ein AWS Secrets Manager Geheimnis für Ihre BigQuery Google-Anmeldeinformationen, das von der Verbindung verwendet wird.
+ Entsprechende Berechtigungen für Ihren Auftrag zum Lesen des von der Verbindung verwendeten Secrets.
+ Der Name und der Datensatz der Tabelle und des entsprechenden Google Cloud-Projekts, in die geschrieben werden soll.

## Ein BigQuery Datenziel hinzufügen
<a name="creating-bigquery-target-node-add"></a>

**Um einen **BigQueryDatenziel-Knoten** hinzuzufügen:**

1.  Wählen Sie die Verbindung für Ihr BigQuery Datenziel. Da Sie sie erstellt haben, sollte sie in der Dropdown-Liste verfügbar sein. Wenn Sie eine Verbindung herstellen müssen, wählen Sie ** BigQuery Verbindung erstellen**. Weitere Informationen finden Sie unter [Übersicht über die Verwendung von Konnektoren und Verbindungen](https://docs.aws.amazon.com/glue/latest/ug/connectors-chapter.html#using-connectors-overview). 

    Nachdem Sie eine Verbindung ausgewählt haben, können Sie die Verbindungseigenschaften anzeigen, indem Sie auf **Eigenschaften anzeigen** klicken. 

1. Identifizieren Sie, BigQuery in welche Tabelle Sie schreiben möchten, und wählen Sie dann eine **Schreibmethode** aus.
   + Direkt — schreibt BigQuery direkt über die BigQuery Storage Write-API in.
   + Indirekt — schreibt in Google Cloud Storage und kopiert dann nach BigQuery.

   Wenn Sie indirekt schreiben möchten, geben Sie einen GCS-Zielort mit einem **temporären GCS-Bucket** an. Sie müssen zusätzliche Konfigurationen für Ihre AWS Glue Verbindung angeben. Weitere Informationen finden Sie unter [Indirektes Schreiben mit Google verwenden BigQuery](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-connect-bigquery-home.html#aws-glue-programming-etl-connect-bigquery-indirect-write).

1.  Beschreiben Sie die Daten, die gelesen werden sollen

   **(Erforderlich) **Geben Sie als **Übergeordnetes Projekt** das Projekt, das Ihre Tabelle enthält, oder, falls relevant, ein übergeordnetes Fakturierungsprojekt an.

   Wenn Sie eine einzelne Tabelle ausgewählt haben, setzen Sie **Table** auf den Namen einer BigQuery Google-Tabelle im folgenden Format: `[dataset].[table]` 

## Erweiterte Optionen
<a name="creating-bigquery-connection-advanced-options"></a>

Sie können erweiterte Optionen angeben, wenn Sie einen BigQuery Knoten erstellen. Diese Optionen sind dieselben wie bei der Programmierung AWS Glue für Spark-Skripte.

Weitere Informationen finden Sie in der [Referenz zu den BigQuery Verbindungsoptionen](https://docs.aws.amazon.com//glue/latest/dg/aws-glue-programming-etl-connect-bigquery-home.html) im AWS Glue Entwicklerhandbuch. 