Kafka-Verbindungen - AWS Glue

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Kafka-Verbindungen

Sie können eine Kafka-Verbindung verwenden, um in Kafka-Datenströmen zu lesen oder zu schreiben, indem Sie Informationen nutzen, die in einer Datenkatalogtabelle gespeichert sind, oder indem Sie Informationen bereitstellen, um direkt auf den Datenstrom zuzugreifen. Die Verbindung unterstützt einen Kafka-Cluster oder einem Cluster von Amazon Managed Streaming for Apache Kafka. Sie können Informationen aus Kafka in einen Spark DataFrame einlesen und dann in einen AWS Glue DynamicFrame konvertieren. Sie können DynamicFrames in einem JSON-Format in Kafka schreiben. Wenn Sie direkt auf den Datenstrom zugreifen, verwenden Sie diese Optionen, um Informationen zum Zugriff auf den Datenstrom bereitzustellen.

Wenn Sie getCatalogSource oder create_data_frame_from_catalog verwenden, um Datensätze aus einer Kafka-Streaming-Quelle zu verbrauchen, oder getCatalogSink oder write_dynamic_frame_from_catalog, um Datensätze in Kafka zu schreiben, enthält der Auftrag die Informationen zur Datenkatalog-Datenbank und Tabellennamen und kann diese verwenden, um einige grundlegende Parameter für das Lesen aus der Kafka-Streaming-Quelle zu erhalten. Wenn Sie getSource, getCatalogSink, getSourceWithFormat, getSinkWithFormat, createDataFrameFromOptions oder create_data_frame_from_options oder write_dynamic_frame_from_catalog verwenden, müssen Sie diese grundlegenden Parameter mithilfe der hier beschriebenen Verbindungsoptionen angeben.

Sie können die Verbindungsoptionen für Kafka mit den folgenden Argumenten für die angegebenen Methoden in der GlueContext-Klasse angeben.

  • Scala

    • connectionOptions: mit getSource, createDataFrameFromOptions, getSink verwenden

    • additionalOptions: mit getCatalogSource, getCatalogSink verwenden

    • options: mit getSourceWithFormat, getSinkWithFormat verwenden

  • Python

    • connection_options: mit create_data_frame_from_options, write_dynamic_frame_from_options verwenden

    • additional_options: mit create_data_frame_from_catalog, write_dynamic_frame_from_catalog verwenden

    • options: mit getSource, getSink verwenden

Hinweise und Einschränkungen zum Streaming von ETL-Aufträgen finden Sie unter Hinweise zu und Einschränkungen für Streaming-ETL.

Themen

    Kafka konfigurieren

    Für die Verbindung mit über das Internet verfügbaren Kafka-Streams sind keine AWS-Voraussetzungen erforderlich.

    Sie können eine AWS-Glue-Kafka-Verbindung erstellen, um Ihre Verbindungsanmeldeinformationen zu verwalten. Weitere Informationen finden Sie unter Erstellen einer AWS Glue-Verbindung für einen Apache-Kafka-Datenstrom. Geben Sie in Ihrer AWS-Glue-Auftragskonfiguration connectionName als zusätzliche Netzwerkverbindung an und geben Sie dann in Ihrem Methodenaufruf connectionName für den connectionName-Parameter an.

    In bestimmten Fällen müssen Sie zusätzliche Voraussetzungen konfigurieren:

    • Wenn Sie Amazon Managed Streaming für Apache Kafka mit IAM-Authentifizierung verwenden, benötigen Sie eine entsprechende IAM-Konfiguration.

    • Wenn Sie Amazon Managed Streaming für Apache Kafka innerhalb einer Amazon VPC verwenden, benötigen Sie eine entsprechende Amazon-VPC-Konfiguration. Sie müssen eine AWS-Glue-Verbindung erstellen, die Amazon VPC-Verbindungsinformationen bereitstellt. Sie benötigen in Ihrer Auftragskonfiguration die AWS-Glue-Verbindung als zusätzliche Netzwerkverbindung.

    Weitere Informationen zu den Voraussetzungen für Streaming-ETL-Aufträgen finden Sie unter Streaming-ETL-Aufträge in AWS Glue.

    Beispiel: Aus Kafka-Streams lesen

    Verwendet in Verbindung mit forEachBatch.

    Beispiel für die Kafka-Streaming-Quelle:

    kafka_options = { "connectionName": "ConfluentKafka", "topicName": "kafka-auth-topic", "startingOffsets": "earliest", "inferSchema": "true", "classification": "json" } data_frame_datasource0 = glueContext.create_data_frame.from_options(connection_type="kafka", connection_options=kafka_options)

    Beispiel: In Kafka-Streams schreiben

    Beispiele für das Schreiben in Kafka:

    Beispiel mit der getSink-Methode:

    data_frame_datasource0 = glueContext.getSink( connectionType="kafka", connectionOptions={ JsonOptions("""{ "connectionName": "ConfluentKafka", "classification": "json", "topic": "kafka-auth-topic", "typeOfData": "kafka"} """)}, transformationContext="dataframe_ApacheKafka_node1711729173428") .getDataFrame()

    Beispiel mit der write_dynamic_frame.from_options-Methode:

    kafka_options = { "connectionName": "ConfluentKafka", "topicName": "kafka-auth-topic", "classification": "json" } data_frame_datasource0 = glueContext.write_dynamic_frame.from_options(connection_type="kafka", connection_options=kafka_options)

    Referenz zur Kafka-Verbindungsoption

    Verwenden Sie beim Lesen die folgenden Verbindungsoptionen mit "connectionType": "kafka":

    • "bootstrap.servers" (Erforderlich) Eine Liste von Bootstrap-Server-URLs, z. B. b-1.vpc-test-2.o4q88o.c6.kafka.us-east-1.amazonaws.com:9094. Diese Option muss im API-Aufruf angegeben oder in den Tabellenmetadaten im Data Catalog definiert werden.

    • "security.protocol" (Erforderlich) Das Protokoll, das für die Kommunikation mit Brokern verwendet wird. Die möglichen Werte sind "SSL" oder "PLAINTEXT".

    • "topicName" (Erforderlich) Eine durch Kommas getrennte Liste von Themen, die abonniert werden sollen. Sie müssen nur eines der folgenden "topicName", "assign" oder "subscribePattern" angeben.

    • "assign": (Erforderlich) Eine JSON-Zeichenfolge, welche den spezifischen TopicPartitions zum Konsumieren angeben. Sie müssen nur eines der folgenden "topicName", "assign" oder "subscribePattern" angeben.

      Beispiel: '{"topicA":[0,1],"topicB":[2,4]}'

    • "subscribePattern": (Erforderlich) Eine Java-Regex-Zeichenfolge, die die Themenliste identifiziert, die abonniert werden soll. Sie müssen nur eines der folgenden "topicName", "assign" oder "subscribePattern" angeben.

      Beispiel: 'topic.*'

    • "classification" (Erforderlich) Das von den Daten im Datensatz verwendete Dateiformat. Erforderlich, sofern nicht in Data Catalog angegeben.

    • "delimiter" (Optional) Das verwendete Werttrennzeichen, wenn classification CSV ist. Der Standardwert ist „,„.

    • "startingOffsets": (Optional) Die Ausgangsposition im Kafka-Thema, aus dem Daten gelesen werden sollen. Die möglichen Werte sind "earliest" oder "latest". Der Standardwert ist "latest".

    • "startingTimestamp": (Optional, nur für AWS-Glue-Version 4.0 oder höher unterstützt) Der Zeitstempel des Datensatzes im Kafka-Thema, aus dem Daten gelesen werden sollen. Der mögliche Wert ist eine Zeitstempelzeichenfolge im UTC-Format im Muster yyyy-mm-ddTHH:MM:SSZ (wobei Z einen UTC-Zeitzonenversatz mit einem +/- darstellt. Beispiel: „2023-04-04T08:00:00-04:00“).

      Hinweis: In der Liste der Verbindungsoptionen des AWS-Glue-Streaming-Skripts darf nur einer von „startingOffsets“ oder „startingTimestamp“ vorhanden sein. Die Einbeziehung dieser beiden Eigenschaften führt zum Fehlschlagen des Auftrags.

    • "endingOffsets": (Optional) Der Endpunkt, wenn eine Batchabfrage beendet wird. Die möglichen Werte sind entweder "latest" oder eine JSON-Zeichenfolge, die einen Offset für das Ende jeder TopicPartition angibt.

      Für die JSON-Zeichenfolge lautet das Format {"topicA":{"0":23,"1":-1},"topicB":{"0":-1}}. Der Wert -1 als Offset steht für "latest".

    • "pollTimeoutMs": (Optional) Das Timeout in Millisekunden, um Daten von Kafka in Spark-Auftragsausführungen abzufragen. Der Standardwert ist 600000.

    • "numRetries": (Optional) Die Anzahl, wie oft erneute Versuche durchgeführt werden sollen, bevor Kafka-Offsets nicht abgerufen werden. Der Standardwert ist 3.

    • "retryIntervalMs": (Optional) Die Wartezeit in Millisekunden, bevor Sie erneut versuchen, Kafka-Offsets abzurufen. Der Standardwert ist 10.

    • "maxOffsetsPerTrigger": (Optional) Die Ratengrenze für die maximale Anzahl von Offsets, die pro Triggerintervall verarbeitet werden. Die angegebene Gesamtzahl der Offsets wird proportional auf topicPartitionsvon verschiedenen Volumes aufgeteilt. Der Standardwert ist null, was bedeutet, dass der Verbraucher alle Offsets bis zum bekannten letzten Offset liest.

    • "minPartitions": (Optional) Die gewünschte Mindestanzahl an Partitionen, die von Kafka gelesen werden sollen. Der Standardwert ist null, was bedeutet, dass die Anzahl der Spark-Partitionen gleich der Anzahl der Kafka-Partitionen ist.

    • "includeHeaders": (Optional) Gibt an, ob die Kafka-Header eingeschlossen werden sollen. Wenn die Option auf „true“ gesetzt ist, enthält die Datenausgabe eine zusätzliche Spalte mit dem Namen „glue_streaming_kafka_headers“ mit dem Typ Array[Struct(key: String, value: String)]. Der Standardwert ist „false“. Diese Option ist nur in AWS Glue Version 3.0 oder höher verfügbar.

    • "schema": (Erforderlich, wenn inferSchema auf „false“ festgelegt ist) Das Schema, das zur Verarbeitung der Nutzlast verwendet werden soll. Wenn die Klassifizierung avro ist, muss das bereitgestellte Schema im Avro-Schemaformat vorliegen. Wenn die Klassifizierung nicht avro ist, muss das bereitgestellte Schema im DDL-Schemaformat vorliegen.

      Im Folgenden finden Sie Beispiele für Schemata.

      Example in DDL schema format
      'column1' INT, 'column2' STRING , 'column3' FLOAT
      Example in Avro schema format
      { "type":"array", "items": { "type":"record", "name":"test", "fields": [ { "name":"_id", "type":"string" }, { "name":"index", "type": [ "int", "string", "float" ] } ] } }
    • "inferSchema": (Optional) Der Standardwert ist „false“. Wenn auf „true“ gesetzt, wird das Schema zur Laufzeit von der Nutzlast in foreachbatch erkannt.

    • "avroSchema": (Veraltet) Parameter, der verwendet wird, um ein Schema von Avro-Daten anzugeben, wenn das Avro-Format verwendet wird. Dieser Parameter ist jetzt veraltet. Verwenden Sie den Parameter schema.

    • "addRecordTimestamp": (Optional) Wenn diese Option auf „true“ gesetzt ist, enthält die Datenausgabe eine zusätzliche Spalte mit dem Namen „__src_timestamp“, die den Zeitpunkt angibt, zu dem der entsprechende Datensatz beim Thema eingegangen ist. Der Standardwert von "false". Diese Option wird in AWS Glue Version 4.0 oder höher unterstützt.

    • "emitConsumerLagMetrics": (Optional) Wenn diese Option auf „true“ gesetzt ist, werden für jeden Batch die Metriken für die Dauer zwischen dem ältesten vom Thema empfangenen Datensatz und dem Zeitpunkt, zu dem er in AWS Glue bei CloudWatch eintrifft, ausgegeben. Der Name der Metrik lautet „glue.driver.streaming.maxConsumerLagInMs“. Der Standardwert von "false". Diese Option wird in AWS Glue Version 4.0 oder höher unterstützt.

    Verwenden Sie beim Schreiben die folgenden Verbindungsoptionen mit "connectionType": "kafka":

    • "connectionName" (Erforderlich) Name der AWS-Glue-Verbindung, die für die Verbindung mit dem Kafka-Cluster verwendet wird (ähnlich der Kafka-Quelle).

    • "topic" (Erforderlich) Wenn eine Themenspalte vorhanden ist, wird ihr Wert als Thema verwendet, wenn die angegebene Zeile in Kafka geschrieben wird, sofern die Themenkonfigurationsoption nicht festgelegt ist. Das heißt, die topic-Konfigurationsoption überschreibt die Themenspalte.

    • "partition" (Optional) Wenn eine gültige Partitionsnummer angegeben ist, wird diese partition beim Senden des Datensatzes verwendet.

      Wenn keine Partition angegeben ist, aber ein key vorhanden ist, wird eine Partition anhand eines Hashs des Schlüssels ausgewählt.

      Falls key weder noch vorhanden partition ist, wird eine Partition auf der Grundlage von Sticky-Partitionierung ausgewählt, wenn für die Partition mindestens batch.size Bytes erzeugt werden.

    • "key" (Optional) Wird für die Partitionierung verwendet, wenn partition NULL ist.

    • "classification" (Optional) Das von den Daten im Datensatz verwendete Dateiformat. Wir unterstützen nur JSON, CSV und Avro.

      Mit dem Avro-Format können wir ein benutzerdefiniertes AvroSchema für die Serialisierung bereitstellen. Beachten Sie jedoch, dass dieses auch in der Quelle für die Deserialisierung bereitgestellt werden muss. Andernfalls wird standardmäßig das Apache AvroSchema für die Serialisierung verwendet.

    Darüber hinaus können Sie die Kafka-Senke nach Bedarf optimieren, indem Sie die Konfigurationsparameter des Kafka-Producers aktualisieren. Beachten Sie, dass es keine Zulassungsliste für Verbindungsoptionen gibt, da alle Schlüssel-Wert-Paare unverändert auf der Senke gespeichert werden.

    Es gibt jedoch eine kleine Sperrliste von Optionen, die nicht wirksam werden. Weitere Informationen finden Sie unter Kafka-spezifische Konfigurationen.